CN111880649A - Ar观景仪的演示方法、***及计算机可读储存介质 - Google Patents

Ar观景仪的演示方法、***及计算机可读储存介质 Download PDF

Info

Publication number
CN111880649A
CN111880649A CN202010590582.9A CN202010590582A CN111880649A CN 111880649 A CN111880649 A CN 111880649A CN 202010590582 A CN202010590582 A CN 202010590582A CN 111880649 A CN111880649 A CN 111880649A
Authority
CN
China
Prior art keywords
actual image
projected
camera
model
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010590582.9A
Other languages
English (en)
Inventor
王正前
王家伟
陈星球
杜亚飞
周子祥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei Anda Exhibition Technology Co ltd
Original Assignee
Hefei Anda Exhibition Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei Anda Exhibition Technology Co ltd filed Critical Hefei Anda Exhibition Technology Co ltd
Priority to CN202010590582.9A priority Critical patent/CN111880649A/zh
Publication of CN111880649A publication Critical patent/CN111880649A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)

Abstract

发明公开了AR观景仪的演示方法、***及计算机可读储存介质,包括:获取摄像头捕捉真实场景下的实际图像,将实际图像与预设的特征图像进行匹配,得到以摄像头为原点所构建的识别坐标系下的识别坐标点;将识别坐标点转化为虚拟世界坐标系下的基准坐标点;使用基准坐标点替换待投影模型中的位置参数,将待投影模型投影到虚拟世界坐标系下的实际图像中;通过预设的调节参数对待投影模型进行参数调节,将待投影模型贴合到虚拟世界坐标系下的实际图像中,对调节参数与基准坐标点进行叠加,得到并保存修正坐标;循环以上操作,待投影模型与虚拟世界坐标系下的实际图像虚实贴合,实现AR观景仪的观看。采用该演示方法提高了观看者对AR观景仪的趣味性。

Description

AR观景仪的演示方法、***及计算机可读储存介质
技术领域
本发明涉及AR观景技术领域,尤其涉及AR观景仪的演示方法、***及计算机可读储存介质。
背景技术
增强现实(AugmentedReality,简称AR),也被称之为混合现实。通过计算机技术,将虚拟的信息应用到真实世界,真实的环境和虚拟的物体实时地叠加到了同一个画面或空间同时存在。AR增强现实这种技术的目标是在屏幕上把虚拟世界套在现实世界并进行互动。
现有技术的缺点在于:由于AR是基于现实环境和虚拟环境的结合,对于现实环境中的实物与虚拟环境中模型进行结合显示时,不能有效的进行匹配结合,使得在观看者观看的过程中,虚拟环境中模型与现实环境中的实物的结合显示比较突兀,显示真实性较差,降低了观看者的参与趣味性。
发明内容
基于背景技术存在的技术问题,本发明提出了AR观景仪的演示方法、***及计算机可读储存介质,使得待投影模型能更贴合的投影到真是场景的指定位置,提高了观看者对AR观景仪的趣味性。
本发明提出的AR观景仪的演示方法,包括:
获取摄像头捕捉真实场景下的实际图像,将实际图像与预设的特征图像进行匹配,得到以摄像头为原点所构建的识别坐标系下的识别坐标点;
将识别坐标点转化为虚拟世界坐标系下的基准坐标点;
使用基准坐标点替换待投影模型中的位置参数,将待投影模型投影到投影到虚拟世界坐标系下的实际图像中;
通过预设的调节参数对待投影模型进行参数调节,将待投影模型贴合到实际图像中,对调节参数与基准坐标点进行叠加,得到并保存修正坐标;
循环以上操作,待投影模型与虚拟世界坐标系下的实际图像贴合,实现AR观景仪的观看。
进一步地,在所述获取摄像头捕捉真实场景下的实际图像,将实际图像与预设的特征图像进行匹配,得到以摄像头为原点所构建的识别坐标系下的识别坐标点中,获取摄像头捕捉真实场景下的实际图像之后,还包括:
获取实际图像的实际光照参数,计算实际光照参数与标准光照参数的差值;
当差值小于零时,则计算标准光照参数与差值之和,得到待投影模型的投影光照参数;
当差值大于零时,则计算标准光照参数与差值之和,得到待投影模型的投影光照参数。
进一步地,在将识别坐标点转化为虚拟世界坐标系下的基准坐标点中,包括:
以虚拟摄像头为原点构建虚拟世界坐标系,并设置虚拟摄像头的相机参数;
识别坐标点依次与相机参数相乘,得到基准坐标点。
进一步地,在所述获取摄像头捕捉真实场景下的实际图像,将实际图像与预设的特征图像进行匹配,得到以摄像头为原点所构建的识别坐标系下的识别坐标点中,其中,将实际图像与预设的特征图像进行匹配,得到以摄像头为原点所构建的识别坐标系下的识别坐标点中,具体包括:
将实际图像与预设的特征图像上传到ARTOOLKIT中,通过ARTOOLKIT中的匹配函数对实际图像与预设的特征图像进行匹配计算;
若匹配成功,则ARTOOLKIT输出以摄像头为原点所构建的识别坐标系下的识别坐标点;
若匹配失败,则重新获取下一帧的实际图像。
进一步地,在获取摄像头捕捉真实场景下的实际图像之前,摄像头对实际图像进行裁剪,以调整图片的尺寸,然后对处理后的实际图像进行标记。
本发明提供的AR观景仪的演示方法、***及计算机可读储存介质的优点在于:本发明结构中提供的AR观景仪的演示方法、***及计算机可读储存介质,以所得到的基准坐标点为基准,通过预设的调节参数对待投影模型进行旋转、缩放等微调位置,使得待投影模型能更贴合的投影到真是场景的指定位置,提高了观看者对AR观景仪的趣味性;通过对待投影模型的标准光照参数进行修正,使得待投影模型的光照与实际场景更贴合,使得两者能更好的统一显示,避免了观看者观看时的画面因两者光照参数不同而出现的断层缺陷;在摄像头获取实际图像时,即对实际图像进行裁剪,以调整图片的尺寸,然后对处理后的实际图像进行标记,使得AR眼镜下的程序能更好的识别到实际图像。
附图说明
图1为本发明的结构示意图;
具体实施方式
下面,通过具体实施例对本发明的技术方案进行详细说明,在下面的描述中阐述了很多具体细节以便于充分理解本发明。但是本发明能够以很多不同于在此描述的其他方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似改进,因此本发明不受下面公开的具体实施的限制。
如图1所示,本发明提出的AR观景仪的演示方法,包括:
S1:获取摄像头捕捉真实场景下的实际图像,将实际图像与预设的特征图像进行匹配,得到以摄像头为原点所构建的识别坐标系下的识别坐标点;
其中真实场景是按景区实际比例缩小的景区实物模型,在真实场景上设置有摄像头,摄像头设置在云台上,使得摄像头可以360度转动,使得摄像头可以实时并全方位获取的真实场景中实际图像。
S2:将识别坐标点转化为虚拟世界坐标系下的基准坐标点;
在本申请中,存在两个空间,一个实际空间,另一个虚拟空间,实际场景设置于实际空间中,投影模型设置于虚拟空间中,AR观景仪的演示是将实际空间与虚拟空间进行组合,通过AR眼镜可以直接看到待投影模型与实际图像融合后的图像,实现了AR观景仪的直观演示。
本演示方法可以采用基于ARTOOLKIT开发包和Unreal engine 4三维引擎(UE4引擎)开发的***进行AR观景仪的虚实显示,ARTOOLKIT开发包是已有的AR识别开放程序,用来识别目标以及不同的坐标转换。即ARTOOLKIT开发包可以实现对真实场景下实际图像的获取,并且将实际图像转化为虚拟空间中虚拟世界坐标系下的图像关系。Unreal engine 4(UE4)是开放的三维引擎,用来开发、制作、显示虚拟物体,以及程序的编写、执行。
***中的三维程序运行时,在虚拟空间预设一个坐标系,称为世界坐标系,也就是虚拟世界坐标系,实际图像通过ARTOOLKIT开发包进行坐标转换得到基准坐标点,实际图像根据基准坐标点对应的坐标信息,在虚拟世界坐标系中显示。
在ARTOOLKIT开发包中AR识别程序识别坐标点,是以实际空间中摄像头为原点的识别坐标系中的识别坐标点,在程序中,为了让实际图像对应的虚拟物体在虚拟空间中能正确显示位置,以虚拟摄像头为原点构建虚拟世界坐标系,并设置虚拟摄像头的相机参数,识别坐标点依次与相机参数相乘,得到基准坐标点,将识别坐标点转换成虚拟世界坐标系中的基准坐标点,其中相机参数包括虚拟摄像头的位置参数、旋转参数、播放参数等,对识别坐标点赋予相机参数后的坐标点对应于基准坐标点。
S3:使用基准坐标点替换待投影模型中的位置参数,将待投影模型投影到投影到虚拟世界坐标系下的实际图像中;
待投影模型携带位置参数、缩放参数、旋转参数等,在待投影模型投影到实际图像中,待投影模型与实际图像的贴合有较大的出入性,此时通过S4对其进行调节。
S4:通过预设的调节参数对待投影模型进行参数调节,将待投影模型贴合到实际图像中,对调节参数与基准坐标点进行叠加,得到并保存修正坐标;
所述参数调节中的参数可以为大小、位置等,即,对待投影模型进行缩放和位置拖动调节,使得待投影模型贴合到虚拟世界坐标系下的实际图像中。
通过鼠标、键盘操作对待投影模型进行缩放、旋转操作,使得待投影模型与实际图像能进行更好的贴合,预设的调节参数一般为虚拟世界坐标系下小范围的坐标点,通过从某一坐标点移动到另一坐标点,实现了对待投影模型的缩放或旋转,一点一点的对待投影模型进行调节,直至待投影模型与实际图像能达到所需的贴合度,记录此时的调节参数,将该调节参数与基准坐标点进行叠加,即为待投影模型在虚拟世界坐标系下的坐标点,之后每次获取同样的实际图像时,均将修正后的修正坐标替换待投影模型中的位置参数,此时将待投影模型投影到实际图像中,即为较为贴合的状态,较佳的实现了虚实结合的观看体验。
S5:循环以上操作,待投影模型与实际图像贴合,实现AR观景仪的观看。
在调试过程中,摄像头转动一周,获取真实场景下所有的实际图像,在该过程中,每获取一张实际图像,均采用以上S1至S4步骤,得到待投影模型投影到实际图像中的修正坐标,待投影模型可以选择不一样的模型,例如熊、虎、猴子等模型,每种待投影模型投影到真实场景中的方法均一致。因此在调试完成后的实际使用过程中,均采用修正坐标替换待投影模型中的位置参数,直接实现AR观景仪的显示,降低了AR眼镜每次获取实际图像的修正操作,简化了操作步骤,使得整个程序简单并稳定。同时将不同待投影模型与不同的实际图像进行映射对应,使得摄像头获取到一个实际图像时,加工对应显示待投影模型。例如,在调试的过程中,当摄像头获取真实场景下的一棵树的实际图像时,将熊的待投影模型投影到实际图像中,使得观看者通过AR眼镜直接看到熊在树旁的图像;再例如,摄像头获取真实场景下的一座山的实际图像时,将猴子的待投影模型投影到实际图像中,使得观看者通过AR眼镜直接看到猴子在山上的图像,同时还可以看到猴子在山上行走、滚动等的图像。UE4引擎中,提供了虚拟物体动作播放和控制接口。程序通过调用这些接口,来实现虚拟物体的动作播放以及运动控制。
通过步骤S1中S5,实现了待投影模型投影到真实场景的准确性,使得所投影的待投影模型(熊、虎等)能较为正确、合适的出现在真实场景中的指定位置,较佳的实现了虚实结合的观看体验。
进一步地,在步骤S1:获取摄像头捕捉真实场景下的实际图像,将实际图像与预设的特征图像进行匹配,得到以摄像头为原点所构建的识别坐标系下的识别坐标点之后,还包括:
S11:获取实际图像的实际光照参数,计算实际光照参数与标准光照参数的差值;
S12:当差值小于零时,则计算标准光照参数与差值之和,得到待投影模型的投影光照参数;
S13:当差值大于零时,则计算标准光照参数与差值之和,得到待投影模型的投影光照参数。
对于步骤S11至S13,例如标准光照参数为100,如果所获取的实际光照参数为110,则实际光照参数与标准光照参数之间的差值为10,此时将待投影模型的标准光照修改为110,以与真实场景中的光照相匹配;同时如果获取的实际光照参数为90,则实际光照参数与标准光照参数之间的差值为-10,此时将待投影模型的标准光照修改为90,以与真实场景中的光照相匹配;在以上步骤S11至S13,光照效果的实现过程,可以由UE4引擎提供,程序实现键盘操控接口,安装调试时,通过键盘修改光照效果的数值,来达到调整的目的。
进一步地,在步骤S1:获取摄像头捕捉真实场景下的实际图像,将实际图像与预设的特征图像进行匹配,得到以摄像头为原点所构建的识别坐标系下的识别坐标点中,其中,将实际图像与预设的特征图像进行匹配,得到以摄像头为原点所构建的识别坐标系下的识别坐标点中,具体包括:
S01:将实际图像与预设的特征图像上传到ARTOOLKIT中,通过ARTOOLKIT中的匹配函数对实际图像与预设的特征图像进行匹配计算;
S02:若匹配成功,则ARTOOLKIT输出以摄像头为原点所构建的识别坐标系下的识别坐标点,进入步骤S2;
S03:若匹配失败,则重新获取下一帧的实际图像,再次进入步骤S01。
在步骤S01至S02中,ARTOOLKIT开放了匹配接口。程序启动后,在每帧实际图像的获取中,读取摄像头拍摄的实际图像,然后将实际图像与预设的特征图像,传递给ARTOOLKIT的匹配函数,该函数就会反馈匹配的结果,匹配成功后返回识别坐标点。
进一步地,在获取摄像头捕捉真实场景下的实际图像之前,摄像头对实际图像进行裁剪,以调整图片的尺寸,然后对处理后的实际图像进行标记。对实际图像进行标记后,便于ARTOOLKIT对实际图像的获取、以及与预设的特征图像进行匹配的快捷性和有效性,提高了ARTOOLKIT对每帧实际图像下的准确获取,避免了出现实际图像遗漏匹配的缺陷。
摄像头采集图像后,使用ARTOOLKIT的摄像头校准接口,对图像进行校准。程序安装调试时,通过键盘操作,标注出裁剪的范围(例如,摄像头采集的图片大小为1920*1080,通过程序标注,使用中间的(1024*768)大小的图片,范围之外的图像裁减掉。)然后显示时,根据实际使用的屏幕分辨率,将裁剪后的图像等比放大,实现全屏效果。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。

Claims (8)

1.AR观景仪的演示方法,其特征在于,包括:
获取摄像头捕捉真实场景下的实际图像,将实际图像与预设的特征图像进行匹配,得到以摄像头为原点所构建的识别坐标系下的识别坐标点;
将识别坐标点转化为虚拟世界坐标系下的基准坐标点;
使用基准坐标点替换待投影模型中的位置参数,将待投影模型投影到虚拟世界坐标系下的实际图像中;
通过预设的调节参数对待投影模型进行参数调节,将待投影模型贴合到虚拟世界坐标系下的实际图像中,对调节参数与基准坐标点进行叠加,得到并保存修正坐标;
循环以上操作,待投影模型与虚拟世界坐标系下的实际图像贴合,实现AR观景仪的观看。
2.根据权利要求1所述的AR观景仪的演示方法,其特征在于,在所述获取摄像头捕捉真实场景下的实际图像,将实际图像与预设的特征图像进行匹配,得到以摄像头为原点所构建的识别坐标系下的识别坐标点中,获取摄像头捕捉真实场景下的实际图像之后,还包括:
获取实际图像的实际光照参数,计算实际光照参数与标准光照参数的差值;
当差值小于零时,则计算标准光照参数与差值之和,得到待投影模型的投影光照参数;
当差值大于零时,则计算标准光照参数与差值之和,得到待投影模型的投影光照参数。
3.根据权利要求1所述的AR观景仪的演示方法,其特征在于,在将识别坐标点转化为虚拟世界坐标系下的基准坐标点中,包括:
以虚拟摄像头为原点构建虚拟世界坐标系,并设置虚拟摄像头的相机参数;
识别坐标点依次与相机参数相乘,得到基准坐标点。
4.根据权利要求1所述的AR观景仪的演示方法,其特征在于,在所述获取摄像头捕捉真实场景下的实际图像,将实际图像与预设的特征图像进行匹配,得到以摄像头为原点所构建的识别坐标系下的识别坐标点中,其中,将实际图像与预设的特征图像进行匹配,得到以摄像头为原点所构建的识别坐标系下的识别坐标点中,具体包括:
将实际图像与预设的特征图像上传到ARTOOLKIT中,通过ARTOOLKIT中的匹配函数对实际图像与预设的特征图像进行匹配计算;
若匹配成功,则ARTOOLKIT输出以摄像头为原点所构建的识别坐标系下的识别坐标点;
若匹配失败,则重新获取下一帧的实际图像。
5.根据权利要求1-4任一所述的AR观景仪的演示方法,其特征在于,在获取摄像头捕捉真实场景下的实际图像之前,摄像头对实际图像进行裁剪,以调整图片的尺寸,然后对处理后的实际图像进行标记。
6.一种AR观景仪的演示***,包括获取模块、坐标转化模块、替换模块、参数调节模块和循环模块;
获取模块用于获取摄像头捕捉真实场景下的实际图像,将实际图像与预设的特征图像进行匹配,得到以摄像头为原点所构建的识别坐标系下的识别坐标点;
坐标转化模块用于将识别坐标点转化为虚拟世界坐标系下的基准坐标点;
替换模块用于使用基准坐标点替换待投影模型中的位置参数,将待投影模型投影到虚拟世界坐标系下的实际图像中;
参数调节模块用于通过预设的调节参数对待投影模型进行参数调节,将待投影模型贴合到虚拟世界坐标系下的实际图像中,对调节参数与基准坐标点进行叠加,得到并保存修正坐标;
循环模块用于循环以上操作,待投影模型与虚拟世界坐标系下的实际图像贴合,实现AR观景仪的观看。
7.根据权利要求6所述的AR观景仪的演示***,其特征在于,获取模块包括获取计算单元、第一计算单元和第二计算单元;
获取计算单元用于获取实际图像的实际光照参数,计算实际光照参数与标准光照参数的差值;
第一计算单元用于当差值小于零时,则计算标准光照参数与差值之和,得到待投影模型的投影光照参数;
第二计算单元用于当差值大于零时,则计算标准光照参数与差值之和,得到待投影模型的投影光照参数。
8.一种计算机可读储存介质,其特征在于,所述计算机可读存储介质上存储有若干获取分类程序,所述若干获取分类程序用于被处理器调用并执行如权利要求1至5任一所述的演示方法。
CN202010590582.9A 2020-06-24 2020-06-24 Ar观景仪的演示方法、***及计算机可读储存介质 Pending CN111880649A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010590582.9A CN111880649A (zh) 2020-06-24 2020-06-24 Ar观景仪的演示方法、***及计算机可读储存介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010590582.9A CN111880649A (zh) 2020-06-24 2020-06-24 Ar观景仪的演示方法、***及计算机可读储存介质

Publications (1)

Publication Number Publication Date
CN111880649A true CN111880649A (zh) 2020-11-03

Family

ID=73158042

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010590582.9A Pending CN111880649A (zh) 2020-06-24 2020-06-24 Ar观景仪的演示方法、***及计算机可读储存介质

Country Status (1)

Country Link
CN (1) CN111880649A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112367534A (zh) * 2020-11-11 2021-02-12 成都威爱新经济技术研究院有限公司 一种虚实混合的数字直播平台及实现方法
CN113568504A (zh) * 2021-07-22 2021-10-29 福州富星光学科技有限公司 一种基于移动设备的ar显示处理方法及其***
CN113838142A (zh) * 2021-09-07 2021-12-24 青岛旭升视觉有限公司 基于ar技术的焊接工件组对方法
CN115082648A (zh) * 2022-08-23 2022-09-20 海看网络科技(山东)股份有限公司 一种基于标志物模型绑定的ar场景布置方法及***
CN117218320A (zh) * 2023-11-08 2023-12-12 济南大学 基于混合现实的空间标注方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102111561A (zh) * 2009-12-25 2011-06-29 新奥特(北京)视频技术有限公司 一种模拟真实场景的三维模型投影方法及装置
CN102831401A (zh) * 2012-08-03 2012-12-19 樊晓东 对无特定标记目标物体跟踪、三维叠加及交互的方法及***

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102111561A (zh) * 2009-12-25 2011-06-29 新奥特(北京)视频技术有限公司 一种模拟真实场景的三维模型投影方法及装置
CN102831401A (zh) * 2012-08-03 2012-12-19 樊晓东 对无特定标记目标物体跟踪、三维叠加及交互的方法及***

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
刘伟等: "基于粒子滤波与自然特征匹配的虚实配准方法", 《微电子学与计算机》 *
陈智翔等: "基于FAST-SURF算法的移动增强现实跟踪技术", 《计算机与现代化》 *
陈靖等: "基于自然特征点的实时增强现实注册算法", 《***仿真学报》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112367534A (zh) * 2020-11-11 2021-02-12 成都威爱新经济技术研究院有限公司 一种虚实混合的数字直播平台及实现方法
CN112367534B (zh) * 2020-11-11 2023-04-11 成都威爱新经济技术研究院有限公司 一种虚实混合的数字直播平台及实现方法
CN113568504A (zh) * 2021-07-22 2021-10-29 福州富星光学科技有限公司 一种基于移动设备的ar显示处理方法及其***
CN113838142A (zh) * 2021-09-07 2021-12-24 青岛旭升视觉有限公司 基于ar技术的焊接工件组对方法
CN113838142B (zh) * 2021-09-07 2023-11-03 青岛旭升视觉有限公司 基于ar技术的焊接工件组对方法
CN115082648A (zh) * 2022-08-23 2022-09-20 海看网络科技(山东)股份有限公司 一种基于标志物模型绑定的ar场景布置方法及***
CN117218320A (zh) * 2023-11-08 2023-12-12 济南大学 基于混合现实的空间标注方法
CN117218320B (zh) * 2023-11-08 2024-02-27 济南大学 基于混合现实的空间标注方法

Similar Documents

Publication Publication Date Title
CN111880649A (zh) Ar观景仪的演示方法、***及计算机可读储存介质
JP5740884B2 (ja) 繰り返し撮影用arナビゲーション及び差異抽出のシステム、方法及びプログラム
CN107646126A (zh) 用于移动设备的相机姿态估计
JP4010754B2 (ja) 画像処理装置と画像処理方法及びコンピュータ読み取り可能な記録媒体
CN111371966B (zh) 一种在虚拟演播室中合成前景人物阴影的方法、装置及存储介质
CN109711472B (zh) 训练数据生成方法和装置
US11989827B2 (en) Method, apparatus and system for generating a three-dimensional model of a scene
JP2019045991A (ja) 生成装置、生成方法、及びプログラム
CN111739137A (zh) 一种三维姿态估计数据集的生成方法
CN114820814A (zh) 摄影机位姿计算方法、装置、设备及存储介质
CN114913308A (zh) 摄像机跟踪方法、装置、设备及存储介质
CN117218320B (zh) 基于混合现实的空间标注方法
CN112017242B (zh) 显示方法及装置、设备、存储介质
CN112288876A (zh) 远距离ar识别服务器及***
CN112954313A (zh) 一种对全景图像感知质量的计算方法
CN109166176B (zh) 三维人脸图像的生成方法与装置
JP4046973B2 (ja) 情報処理方法および画像混合装置
JP6426594B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
CN108171802B (zh) 一种云端与终端结合实现的全景增强现实实现方法
CN112887619A (zh) 拍摄方法、装置及电子设备
Hold-Geoffroy et al. A perceptual measure for deep single image camera and lens calibration
CN111242107A (zh) 用于设置空间中的虚拟对象的方法和电子设备
JP2002135807A (ja) 3次元入力のためのキャリブレーション方法および装置
JP7380661B2 (ja) 投射方法、及び投射システム
CN111124106A (zh) 一种追踪虚拟现实***的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20201103