CN116664895B - 一种基于ar/ai/3dgis技术的图像与模型的匹配方法 - Google Patents
一种基于ar/ai/3dgis技术的图像与模型的匹配方法 Download PDFInfo
- Publication number
- CN116664895B CN116664895B CN202310936663.3A CN202310936663A CN116664895B CN 116664895 B CN116664895 B CN 116664895B CN 202310936663 A CN202310936663 A CN 202310936663A CN 116664895 B CN116664895 B CN 116664895B
- Authority
- CN
- China
- Prior art keywords
- coordinates
- 3dgis
- object model
- perspective
- overlook
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 20
- 238000005516 engineering process Methods 0.000 title claims abstract description 11
- 230000009466 transformation Effects 0.000 claims abstract description 35
- 238000006243 chemical reaction Methods 0.000 claims abstract description 25
- 238000011426 transformation method Methods 0.000 claims abstract description 4
- 239000011159 matrix material Substances 0.000 claims description 15
- 230000000007 visual effect Effects 0.000 claims description 6
- 238000002372 labelling Methods 0.000 abstract description 4
- 238000012549 training Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 210000000988 bone and bone Anatomy 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种基于AR/AI/3DGIS技术的图像与模型的匹配方法,包括获取视频图像数据,并对视频图像数据中的物体模型进行识别;将识别的物体模型与已知管理信息的物体进行绑定;将物体模型的图像坐标转换为3DGIS俯视坐标;根据物体模型的3DGIS俯视坐标和真实物***置坐标确定坐标转换参数;将真实物***置坐标根据坐标转换参数转换为3DGIS俯视坐标;采用透视坐标变换方法将真实物***置的3DGIS俯视坐标转换为透视变换坐标;根据真实物***置的透视变换坐标在视频图像中标注真实物体的属性信息。本发明、实现了AR场景中的物体模型信息与管理信息进行关联匹配,进而可以实现AR场景中任意物体的属性标注和详细信息查询。
Description
技术领域
本发明涉及图像识别技术领域,具体涉及一种基于AR/AI/3DGIS技术的图像与模型的匹配方法。
背景技术
增强现实(AR)技术是一种将虚拟信息与真实世界巧妙融合的技术,该技术的应用可以更好的展示场景中的各种信息,但是也存在一些技术问题,如可以识别物体模型的类型,但是无法获得物体的管理信息。
发明内容
针对现有技术中的上述不足,本发明提供了一种基于AR/AI/3DGIS技术的图像与模型的匹配方法。
为了达到上述发明目的,本发明采用的技术方案为:
一种基于AR/AI/3DGIS技术的图像与模型的匹配方法,包括以下步骤:
S1、获取视频图像数据,并对视频图像数据中的物体模型进行识别;
S2、将识别的物体模型与已知管理信息的物体进行绑定;
S3、将物体模型的图像坐标转换为3DGIS俯视坐标;
S4、根据物体模型的3DGIS俯视坐标和真实物***置坐标确定坐标转换参数;
S5、将真实物***置坐标根据坐标转换参数转换为3DGIS俯视坐标;
S6、采用透视坐标变换方法将真实物***置的3DGIS俯视坐标转换为透视变换坐标;
S7、根据真实物***置的透视变换坐标在视频图像中标注真实物体的属性信息。
进一步地,步骤S3具体包括:
将采集视频图像的相机进行坐标变换,将相机位置作为原点,相机朝向指向正Z轴,将视景内物体模型的顶点坐标通过透视变换矩阵投射到视平面上,并将转换的透视坐标转换为齐次坐标,得到物体模型顶点的3DGIS俯视坐标。
进一步地,所述透视变换矩阵具体为:
,
其中,T per 为透视变换矩阵,d为视距,为视平面的宽高比。
进一步地,所述透视坐标具体为:
,
其中,L为物体模型顶点的透视坐标,(x,y,z)为物体模型的顶点坐标,d为视距,为视平面的宽高比。
进一步地,所述物体模型顶点的3DGIS俯视坐标具体为:
,
其中,P为物体模型顶点的3DGIS俯视坐标,(x,y,z)为物体模型的顶点坐标,d为视距,为视平面的宽高比。
进一步地,步骤S4具体包括:
获取多组物体模型的3DGIS俯视坐标和真实物***置坐标;
构建坐标转换方程;
利用多组物体模型的3DGIS俯视坐标和真实物***置坐标对坐标转换方程进行求解,得到坐标转换参数。
进一步地,所述坐标转换方程具体为:
,
其中,为物体模型的3DGIS俯视坐标,/>为真实物***置坐标,X,Y为偏移量,A为旋转因子,p为比例因子。
本发明具有以下有益效果:
本发明通过对AR视频图像中的物体模型进行识别,并将物体模型与3DGIS场景中真实物体坐标互相转换,从而可以在AR视频图像上标注真实物体的属性信息,实现了AR场景中的物体模型信息与管理信息进行关联匹配,进而可以实现AR场景中任意物体的属性标注和详细信息查询。
附图说明
图1为本发明中一种基于AR/AI/3DGIS技术的图像与模型的匹配方法的流程示意图;
图2为本发明中左手坐标系下3D***俯视图;
图3为本发明中3D***的侧视图;
图4为本发明中视平面的侧视图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
如图1所示,本发明实施例提供了一种基于AR/AI/3DGIS技术的图像与模型的匹配方法,包括以下步骤S1至S7:
S1、获取视频图像数据,并对视频图像数据中的物体模型进行识别;
在本发明的一个可选实施例中,本发明首先通过摄像头获取视频图像数据,并将摄像头的视频流数据按照视频协议接入到服务器中。
然后通过标注平台对数据集进行标注,得到标注的图像数据集。图像标注完成后,将数据集制作为VOC数据集格式,且将训练集与验证集分布比例划分为:5:1。VOC格式数据集结构如下:
├── VOC2007 │├── JPEGImages 存放需要打标签的图片文件 │├──Annotations 存放标注的标签文件 │├── predefined_classes.txt 定义自己要标注的所有类别。
最后构建YOLOV5s目标检测网络对视频图像数据中的物体模型进行识别。YOLOV5s目标检测网络结构大体分为三个层,分别为Backbone层、Neck层和Head层;Backbone层主要由Focus,CBS,BottleneckCSP(/C3)以及SPP等组成,其作用是进行特征提取;Neck层是FPN+PAN结构的设计,其作用是对特征进行混合与组合,并且把这些特征传递给预测层;Head层为输出层,其作用是进行最终的预测输出。YOLOV5s目标检测网络通过Pytorch深度学习框架搭建并进行模型训练。模型训练过程中,需要根据实际情况对不同参数进行适当调整,如learning rate、batch_size、mixup、Random affine、mosaic等。模型训练过程中,使用不同的训练策略可促使模型loss快速下降,precision快速上升等,常见的训练策略有:Warmup、Autoanchor、freeze training、multi-scale training等。
通过上述步骤的训练后得到的是一个模型文件,文件里存储的是训练学习到的数据集中的特征。在采集的图像中提取物体的特征点,然后与训练得到的数据集特征进行匹配,获得物体的类型。
S2、将识别的物体模型与已知管理信息的物体进行绑定;
在本发明的一个可选实施例中,本实施例将步骤S1识别的物体模型与已知管理信息的物体进行绑定,从而建立物体模型与已知管理信息的物体的一一对应关系,通过AR图像与3DGIS场景的匹配,实现AR场景中的物体模型信息与管理信息进行关联的目的。
S3、将物体模型的图像坐标转换为3DGIS俯视坐标;
在本发明的一个可选实施例中,步骤S3具体包括:
将采集视频图像的相机进行坐标变换,将相机位置作为原点,相机朝向指向正Z轴,将视景内物体模型的顶点坐标通过透视变换矩阵投射到视平面上,并将转换的透视坐标转换为齐次坐标,得到物体模型顶点的3DGIS俯视坐标。
具体而言,本实施例将采集视频图像的相机进行坐标变换,将相机位置作为原点,相机朝向指向正Z轴,如图2所示。
图2是左手坐标系下3D***俯视图,相机视野为90度,视景体内物体的顶点需要投射到视平面上完成透视变换,通过确定视距d可以计算出顶点在视平面投影的坐标,如图3所示。
图3是3D***的侧视图,YOZ平面下根据相似三角形定理可以得到:
,
同理可得:
,
综上可得视点位于(0, 0, 0),视平面为z=d时物体顶点(x, y, z)的投影变换为:
,
,
可以通过矩阵运算来完成变换:
,
将所有的分量都除以,由于只需要x和y,因此不需要考虑z的值,将上面的矩阵作为透视变换矩阵Tper为:
,
因为一般取视平面的宽度为2,坐标范围为( -1,1),而且相机视野为90度,所以可以求得d值为1,此时变换矩阵为:
,
经过矩阵运算后得到的透视坐标x范围为(-1,1),y范围为(-1,1)。
这种情况是相机视野为90度,视平面是方形的,并且屏幕/视口也是方形的,当需要考虑一般情况,就是屏幕/视口不是方形的,需要引入宽高比,如果在透视变换过程中不考虑宽高比的问题,在后面的屏幕坐标变换就需要考虑了,如果都不作处理最后得到的图形会发生比例失真。
以屏幕/视口600x400为例,宽高比aspect_ratio为3:2,相机视野为,视平面为2x 2/aspect_ratio,从而保证视平面和屏幕的宽高比一致,如图4所示。
因为视屏面宽度w=2,所以可以求得。
根据视距d可以进行透视坐标变换,顶点经过投影后x坐标范围为(-1,1),y坐标范围为(-1/aspect_ratio, 1/aspect_ratio),但是这个透视坐标运算过程中是没考虑到宽高比的,这时将y分量乘以宽高比,这样y坐标范围(-1, 1)就是归一化的了,后续屏幕坐标变换过程中就不需要考虑宽高比的问题了。因此得到变换公式如下:
,
,
透视变换矩阵Tper为:
,
顶点(x, y, z)经过透视矩阵运算后:
,
最后将计算结果转换为齐次坐标,所有分量除以z,得到物体模型顶点的3DGIS俯视坐标为:
。
S4、根据物体模型的3DGIS俯视坐标和真实物***置坐标确定坐标转换参数;
在本发明的一个可选实施例中,步骤S4具体包括:
获取多组物体模型的3DGIS俯视坐标和真实物***置坐标;
构建坐标转换方程;
利用多组物体模型的3DGIS俯视坐标和真实物***置坐标对坐标转换方程进行求解,得到坐标转换参数。
具体而言,本实施例首先通过步骤S3获取至少两组物体模型的3DGIS俯视坐标和真实物***置模型的真实物***置坐标;
然后构建坐标转换方程为:
,
其中,为物体模型的3DGIS俯视坐标,/>为真实物***置坐标,X,Y为偏移量,A为旋转因子,p为比例因子。
最后根据至少两组物体模型的3DGIS俯视坐标和真实物***置坐标对构建的坐标转换方程进行求解,得到坐标转换参数,即偏移量X,Y,旋转因子A,比例因子p。
S5、将真实物***置坐标根据坐标转换参数转换为3DGIS俯视坐标;
在本发明的一个可选实施例中,本实施例根据步骤S4得到坐标转换参数后,将真实物***置坐标代入坐标转换方程,即可将真实物***置坐标转换为对应的3DGIS俯视坐标。
S6、采用透视坐标变换方法将真实物***置的3DGIS俯视坐标转换为透视变换坐标;
在本发明的一个可选实施例中,本实施例根据步骤S5转换得到的真实物***置的3DGIS俯视坐标,采用透视变换矩阵进行透视坐标逆变换,即可得到真实物***置的透视变换坐标,从而实现物体模型与3DGIS场景中真实物体坐标互相转换。
S7、根据真实物***置的透视变换坐标在视频图像中标注真实物体的属性信息。
在本发明的一个可选实施例中,本实施例根据步骤S6得到的真实物***置的透视变换坐标,即可将真实物体的属性信息标注在视频图像上的真实物体的透视变换坐标上,从而实现AR场景中任意物体的属性标注和详细信息查询。
本发明是参照根据本发明实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
本发明中应用了具体实施例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。
Claims (1)
1.一种基于AR/AI/3DGIS技术的图像与模型的匹配方法,其特征在于,包括以下步骤:
S1、获取视频图像数据,并对视频图像数据中的物体模型进行识别;
S2、将识别的物体模型与已知管理信息的物体进行绑定;
S3、将物体模型的图像坐标转换为3DGIS俯视坐标;具体包括:
将采集视频图像的相机进行坐标变换,将相机位置作为原点,相机朝向指向正Z轴,将视景内物体模型的顶点坐标通过透视变换矩阵投射到视平面上,并将转换的透视坐标转换为齐次坐标,得到物体模型顶点的3DGIS俯视坐标;
所述透视变换矩阵具体为:
,
其中,T per 为透视变换矩阵,d为视距,为视平面的宽高比;
所述透视坐标具体为:
,
其中,L为物体模型顶点的透视坐标,(x,y,z)为物体模型的顶点坐标,d为视距,为视平面的宽高比;
所述物体模型顶点的3DGIS俯视坐标具体为:
,
其中,P为物体模型顶点的3DGIS俯视坐标,(x,y,z)为物体模型的顶点坐标,d为视距,为视平面的宽高比;
S4、根据物体模型的3DGIS俯视坐标和真实物***置坐标确定坐标转换参数;具体包括:
获取多组物体模型的3DGIS俯视坐标和真实物***置坐标;
构建坐标转换方程;
利用多组物体模型的3DGIS俯视坐标和真实物***置坐标对坐标转换方程进行求解,得到坐标转换参数;
所述坐标转换方程具体为:
,
其中,为物体模型的3DGIS俯视坐标,/>为真实物***置坐标,X,Y为偏移量,A为旋转因子,p为比例因子;
S5、将真实物***置坐标根据坐标转换参数转换为3DGIS俯视坐标;
S6、采用透视坐标变换方法将真实物***置的3DGIS俯视坐标转换为透视变换坐标;
S7、根据真实物***置的透视变换坐标在视频图像中标注真实物体的属性信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310936663.3A CN116664895B (zh) | 2023-07-28 | 2023-07-28 | 一种基于ar/ai/3dgis技术的图像与模型的匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310936663.3A CN116664895B (zh) | 2023-07-28 | 2023-07-28 | 一种基于ar/ai/3dgis技术的图像与模型的匹配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116664895A CN116664895A (zh) | 2023-08-29 |
CN116664895B true CN116664895B (zh) | 2023-10-03 |
Family
ID=87724578
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310936663.3A Active CN116664895B (zh) | 2023-07-28 | 2023-07-28 | 一种基于ar/ai/3dgis技术的图像与模型的匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116664895B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103795976A (zh) * | 2013-12-30 | 2014-05-14 | 北京正安融翰技术有限公司 | 一种全时空立体可视化方法 |
CN106791784A (zh) * | 2016-12-26 | 2017-05-31 | 深圳增强现实技术有限公司 | 一种虚实重合的增强现实显示方法和装置 |
CN112085804A (zh) * | 2020-08-21 | 2020-12-15 | 东南大学 | 一种基于神经网络的物***姿识别方法 |
JP2022055100A (ja) * | 2020-09-28 | 2022-04-07 | セイコーエプソン株式会社 | 制御方法、制御装置およびロボットシステム |
-
2023
- 2023-07-28 CN CN202310936663.3A patent/CN116664895B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103795976A (zh) * | 2013-12-30 | 2014-05-14 | 北京正安融翰技术有限公司 | 一种全时空立体可视化方法 |
CN106791784A (zh) * | 2016-12-26 | 2017-05-31 | 深圳增强现实技术有限公司 | 一种虚实重合的增强现实显示方法和装置 |
CN112085804A (zh) * | 2020-08-21 | 2020-12-15 | 东南大学 | 一种基于神经网络的物***姿识别方法 |
JP2022055100A (ja) * | 2020-09-28 | 2022-04-07 | セイコーエプソン株式会社 | 制御方法、制御装置およびロボットシステム |
Non-Patent Citations (1)
Title |
---|
三维场景点云理解与重建技术;张志伟;《中国图像图形学报》;第28卷(第6期);第1742-1764页 * |
Also Published As
Publication number | Publication date |
---|---|
CN116664895A (zh) | 2023-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6789402B2 (ja) | 画像内の物体の姿の確定方法、装置、設備及び記憶媒体 | |
WO2018119889A1 (zh) | 三维场景定位方法和装置 | |
JP2019057248A (ja) | 画像処理システム、画像処理装置、画像処理方法及びプログラム | |
US10403001B2 (en) | Producing three-dimensional representation based on images of an object | |
CN104715479A (zh) | 基于增强虚拟的场景复现检测方法 | |
CN109711472B (zh) | 训练数据生成方法和装置 | |
CN109887030A (zh) | 基于cad稀疏模板的无纹理金属零件图像位姿检测方法 | |
CN106023307B (zh) | 基于现场环境的快速重建三维模型方法及*** | |
CN110648274B (zh) | 鱼眼图像的生成方法及装置 | |
CN108492017B (zh) | 一种基于增强现实的产品质量信息传递方法 | |
CN112651881B (zh) | 图像合成方法、装置、设备、存储介质以及程序产品 | |
JP2014112055A (ja) | カメラ姿勢の推定方法およびカメラ姿勢の推定システム | |
CN112802208B (zh) | 一种航站楼内三维可视化方法及装置 | |
CN109934873B (zh) | 标注图像获取方法、装置及设备 | |
WO2019012632A1 (ja) | 認識処理装置、認識処理方法及びプログラム | |
CN112581632B (zh) | 一种房源数据的处理方法和装置 | |
WO2022021782A1 (zh) | 六维姿态数据集自动生成方法、***、终端以及存储介质 | |
CN112712487A (zh) | 一种场景视频融合方法、***、电子设备及存储介质 | |
WO2024088071A1 (zh) | 三维场景重建方法、装置、设备及存储介质 | |
CN112669436A (zh) | 一种基于3d点云的深度学习样本生成方法 | |
Lee et al. | Real time 3D avatar for interactive mixed reality | |
CN116664895B (zh) | 一种基于ar/ai/3dgis技术的图像与模型的匹配方法 | |
CN115063485B (zh) | 三维重建方法、装置及计算机可读存储介质 | |
CN113486941B (zh) | 直播图像的训练样本生成方法、模型训练方法及电子设备 | |
CN111369651A (zh) | 三维表情动画生成方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |