CN113673283A - 一种基于增强现实的平滑跟踪方法 - Google Patents
一种基于增强现实的平滑跟踪方法 Download PDFInfo
- Publication number
- CN113673283A CN113673283A CN202010408715.6A CN202010408715A CN113673283A CN 113673283 A CN113673283 A CN 113673283A CN 202010408715 A CN202010408715 A CN 202010408715A CN 113673283 A CN113673283 A CN 113673283A
- Authority
- CN
- China
- Prior art keywords
- augmented reality
- calculating
- tracking method
- frame
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 26
- 239000011159 matrix material Substances 0.000 claims abstract description 55
- 230000009466 transformation Effects 0.000 claims abstract description 47
- 238000012545 processing Methods 0.000 claims abstract description 17
- 239000003550 marker Substances 0.000 claims abstract description 10
- 238000012805 post-processing Methods 0.000 claims abstract description 8
- 239000002131 composite material Substances 0.000 claims abstract description 4
- 230000002194 synthesizing effect Effects 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 239000004744 fabric Substances 0.000 claims 1
- 230000000694 effects Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000002759 woven fabric Substances 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种基于增强现实的平滑跟踪方法,包括以下步骤:S01:提取待识别图片的特征描述子;S02:对抓取的视频帧图像进行处理,找到识别图片;S03:计算从标志物坐标系到相机坐标系的变换矩阵;S04:平滑跟踪方法对矩阵后处理;S05:计算虚拟物件在相机坐标系下的坐标,并绘制三维图形生成虚拟图形帧;S06:获得增强现实环境的合成视频帧,将其输出到显示屏上。本发明中,该平滑跟踪方法通过对图片上特征点的描述,获取到对应的平滑变换矩阵,并采用平滑跟踪技术对图片的特征进行跟踪,可以识别到图片上较弱的纹理特点,从而显著的减少了虚拟物件跟踪的抖动和不稳定现象,可以更好的提升增强现实的体验感。
Description
技术领域
本发明涉及增强现实技术技术领域,尤其涉及一种基于增强现实的平滑跟踪方法。
背景技术
增强现实是一种实时地计算摄影机影像的位置及角度并加上相应图像的技术,是一种将真实世界信息和虚拟世界信息“无缝”集成的新技术,这种技术的目标是在屏幕上把虚拟世界套在现实世界并进行互动,为图片和视频的处理提供了重要的作用。
目前,对于图片识别与跟踪的无标记增强现实方法,通常是通过提取识别图片的特征点来作为虚拟物件注册的基准,这就需要对识别图片要求较高的纹理特点,当识别图片的纹理比较弱时,虚拟物件会出现跟踪不稳定和抖动的现象,从而导致用户无法获得更好的增强现实的体验感。
发明内容
本发明的目的是为了解决现有技术中存在的缺点,而提出的一种基于增强现实的平滑跟踪方法。
为了实现上述目的,本发明采用了如下技术方案:一种基于增强现实的平滑跟踪方法,包括以下步骤:
S01:提取待识别图片的特征描述子;
S02:对抓取的视频帧图像进行处理,找到识别图片;
S03:计算从标志物坐标系到相机坐标系的变换矩阵;
S04:平滑跟踪方法对矩阵后处理;
S05:计算虚拟物件在相机坐标系下的坐标,并绘制三维图形生成虚拟图形帧;
S06:获得增强现实环境的合成视频帧,将其输出到显示屏上。
作为上述技术方案的进一步描述:
所述步骤S01中,利用不变性描述子ORB特征点检测器对相机拍摄的每一张图像进行特征点检测,并用不变性ORB描述子来描述每一个特征点。
作为上述技术方案的进一步描述:
所述步骤S02中,对抓取的视频帧图像处理包括以下步骤:
S02.1:对视频帧图像进行图像灰度处理和二值化处理;
S02.2:对视频帧图像进行图像标记;
S02.3:对视频帧图像进行轮廓提取,获得识别图片。
作为上述技术方案的进一步描述:
所述步骤S03中,变换矩阵M的获取方式由计算每一帧视频数据流,并经过旋转变换R和平移变换T获得。
作为上述技术方案的进一步描述:
所述步骤S04中,平滑跟踪方法对矩阵后处理还包括以下步骤:
S04.1:计算N个变换矩阵的平均值,对获取到的变换矩阵M做处理,将获取到的n个变换矩阵M存放于数组,这个数组为Mt,接着通过以下公式计算得到Mave,表示在n个变换矩阵M矩阵相加得到的平均值,其计算公式为:
S04.2:取平均值和下一帧计算得到的变换矩阵的绝对值,绝对值的计算方式为:初始化变量i,j,delta_times,Δ,t;
if(delta_times>t)Mt+1=Mave,其中,Δ为阈值,|Mave[i][j]-Mt+1[i][j]|为变换矩阵的绝对值;
S04.3:计算绝对值超过阈值的次数,计算绝对值|Mave[i][j]-Mt+1[i][j]|与阈值Δ,并对超过的次数进行计算,记为:delta_times,if(delta_times>t)Mt+1=Mave,t表示设定的超出阈值Δ的次数。
S04.4:比较超过阈值的次数与设定阈值的次数,当delta_times大于设定的t,则下一帧的变换矩阵选取上述所计算的矩阵的平均值Mave;
如果没有大于设定的t,说明变换矩阵在该帧下变化平滑,那么下一帧的变换矩阵还是原来的Mt+1
作为上述技术方案的进一步描述:
所述步骤S05中,绘制三维图形生成虚拟图形帧包括以下步骤:
S05.1:获取标志物坐标系和图像坐标系中对应的标志物顶点坐标,采用二维可视偏码中得到编码值;
S05.2:检索对应该编码的三维模型,获得三维模型的顶点数组;
S05.3:将顶点数组中的顶点与变化矩阵乘积,即为相机坐标系下的坐标数组;
S05.4:将三维图像存储在帧缓存中,生成虚拟图像帧。
作为上述技术方案的进一步描述:
所述步骤S06中,合成视频帧是通过虚实合成模块将获得虚拟图形帧与二维可视编码编织物的视频帧进行合成获得。
有益效果
本发明提供了一种基于增强现实的平滑跟踪方法。具备以下有益效果:
(1):该平滑跟踪方法通过对图片上特征点的描述,获取到对应的平滑变换矩阵,并作为下一帧虚拟物件的映射矩阵,并采用平滑跟踪技术对图片的特征进行跟踪,可以识别到图片上较弱的纹理特点,并看到虚拟物件平滑跟踪的效果,从而显著的减少了虚拟物件跟踪的抖动和不稳定现象,可以更好的提升增强现实的体验感。
附图说明
图1为本发明提出的一种基于增强现实的平滑跟踪方法的流程示意图;
图2为本发明中平滑跟踪方法后处理的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
如图1-图2所示,一种基于增强现实的平滑跟踪方法:包括以下步骤:
S01:提取待识别图片的特征描述子;
S02:对抓取的视频帧图像进行处理,找到识别图片;
S03:计算从标志物坐标系到相机坐标系的变换矩阵;
S04:平滑跟踪方法对矩阵后处理;
S05:计算虚拟物件在相机坐标系下的坐标,并绘制三维图形生成虚拟图形帧;
S06:获得增强现实环境的合成视频帧,将其输出到显示屏上。
步骤S01中,利用不变性描述子ORB特征点检测器对相机拍摄的每一张图像进行特征点检测,并用不变性ORB描述子来描述每一个特征点。
步骤S02中,对抓取的视频帧图像处理包括以下步骤:
S02.1:对视频帧图像进行图像灰度处理和二值化处理;
S02.2:对视频帧图像进行图像标记;
S02.3:对视频帧图像进行轮廓提取,获得识别图片。
步骤S03中,变换矩阵M的获取方式由计算每一帧视频数据流,并经过旋转变换R和平移变换T获得。
其特步骤S04中,平滑跟踪方法对矩阵后处理还包括以下步骤:
S04.1:计算N个变换矩阵的平均值,对获取到的变换矩阵M做处理,将获取到的n个变换矩阵M存放于数组,这个数组为Mt,接着通过以下公式计算得到Mave,表示在n个变换矩阵M矩阵相加得到的平均值,其计算公式为:
S04.2:取平均值和下一帧计算得到的变换矩阵的绝对值,绝对值的计算方式为:初始化变量i,j,delta_times,Δ,t;
if(delta_times>t)Mt+1=Mave,其中,Δ为阈值,|Mave[i][j]-Mt+1[i][j]|为变换矩阵的绝对值;
S04.3:计算绝对值超过阈值的次数,计算绝对值|Mave[i][j]-Mt+1[i][j]|与阈值Δ,并对超过的次数进行计算,记为:delta_times,if(delta_times>t)Mt+1=Mave,t表示设定的超出阈值Δ的次数。
S04.4:比较超过阈值的次数与设定阈值的次数,当delta_times大于设定的t,则下一帧的变换矩阵选取上述所计算的矩阵的平均值Mave;
如果没有大于设定的t,说明变换矩阵在该帧下变化平滑,那么下一帧的变换矩阵还是原来的Mt+1。
步骤S05中,绘制三维图形生成虚拟图形帧包括以下步骤:
S05.1:获取标志物坐标系和图像坐标系中对应的标志物顶点坐标,采用二维可视偏码中得到编码值;
S05.2:检索对应该编码的三维模型,获得三维模型的顶点数组;
S05.3:将顶点数组中的顶点与变化矩阵乘积,即为相机坐标系下的坐标数组;
S05.4:将三维图像存储在帧缓存中,生成虚拟图像帧。
步骤S06中,合成视频帧是通过虚实合成模块将获得虚拟图形帧与二维可视编码编织物的视频帧进行合成获得。
作为上述实施方式的其中一个实施例:
通过公式计算n个变换矩阵M相加得到的平均值,其中,上述n为决定要存放数组的个数,值越大,越考虑整体变化下的平均值,n通常可以为3-7,遍历两个循环后,取平均值和下一帧计算得到的变换矩阵的绝对值|Mave[i][j]-Mt+1[i][j]|,判断该绝对值是否大于阈值Δ,这里的阈值Δ通常可以为0.001-0.01,如果越小则说明对下一帧的变换矩阵Mt+1的要求变化较小,如果绝对值|Mave[i][j]-Mt+1[i][j]|计算超过阈值Δ,则对此计数delta_times,并且该delta_times最大为12;
if(delta_times>t)Mt+1=Mave;上述t表示设定的超出阈值Δ的次数,通常为可以取2-12;
整个语句表示,当delta_times大于设定的t,则下一帧的变换矩阵M选取上述所计算的矩阵的平均值Mave;如果没有大于设定的t,说明变换矩阵在该帧下变化平滑,那么下一帧的变换矩阵还是原来的Mt+1,利用上述的平滑跟踪方法,即可获取到的平滑变换矩阵作为下一帧虚拟物件的映射矩阵,最后可以清除的看到虚拟物件平滑跟踪的效果,提升了用户的体验效果。
在本说明书的描述中,参考术语“一个实施例”、“示例”、“具体示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。
Claims (7)
1.一种基于增强现实的平滑跟踪方法,其特征在于:包括以下步骤:
S01:提取待识别图片的特征描述子;
S02:对抓取的视频帧图像进行处理,找到识别图片;
S03:计算从标志物坐标系到相机坐标系的变换矩阵;
S04:平滑跟踪方法对矩阵后处理;
S05:计算虚拟物件在相机坐标系下的坐标,并绘制三维图形生成虚拟图形帧;
S06:获得增强现实环境的合成视频帧,将其输出到显示屏上。
2.根据权利要求1所述的一种基于增强现实的平滑跟踪方法,其特征在于,所述步骤S01中,利用不变性描述子ORB特征点检测器对相机拍摄的每一张图像进行特征点检测,并用不变性ORB描述子来描述每一个特征点。
3.根据权利要求1所述的一种基于增强现实的平滑跟踪方法,其特征在于,所述步骤S02中,对抓取的视频帧图像处理包括以下步骤:
S02.1:对视频帧图像进行图像灰度处理和二值化处理;
S02.2:对视频帧图像进行图像标记;
S02.3:对视频帧图像进行轮廓提取,获得识别图片。
4.根据权利要求1所述的一种基于增强现实的平滑跟踪方法,其特征在于,所述步骤S03中,变换矩阵M的获取方式由计算每一帧视频数据流,并经过旋转变换R和平移变换T获得。
5.根据权利要求1所述的一种基于增强现实的平滑跟踪方法,其特征在于,所述步骤S04中,平滑跟踪方法对矩阵后处理还包括以下步骤:
S04.1:计算N个变换矩阵的平均值,对获取到的变换矩阵M做处理,将获取到的n个变换矩阵M存放于数组,这个数组为Mt,接着通过以下公式计算得到Mave,表示在n个变换矩阵M相加得到的平均值,其计算公式为:
S04.2:取平均值和下一帧计算得到的变换矩阵的绝对值,绝对值的计算方式为:初始化变量i,j,delta_times,Δ,t;
if(delta_times>t)Mt+1=Mave,其中,Δ为阈值,|Mave[i][j]-Mt+1[i][j]|为变换矩阵的绝对值;
S04.3:计算绝对值超过阈值的次数,计算绝对值|Mave[i][j]-Mt+1[i][j]|与阈值Δ,并对超过的次数进行计算,记为:delta_times,if(delta_times>t)Mt+1=Mave,t表示设定的超出阈值Δ的次数。
S04.4:比较超过阈值的次数与设定阈值的次数,当delta_times大于设定的t,则下一帧的变换矩阵选取上述所计算的矩阵的平均值Mave;
如果没有大于设定的t,说明变换矩阵在该帧下变化平滑,那么下一帧的变换矩阵还是原来的Mt+1。
6.根据权利要求1所述的一种基于增强现实的平滑跟踪方法,其特征在于,所述步骤S05中,绘制三维图形生成虚拟图形帧包括以下步骤:
S05.1:获取标志物坐标系和图像坐标系中对应的标志物顶点坐标,采用二维可视偏码中得到编码值;
S05.2:检索对应该编码的三维模型,获得三维模型的顶点数组;
S05.3:将顶点数组中的顶点与变化矩阵乘积,即为相机坐标系下的坐标数组;
S05.4:将三维图像存储在帧缓存中,生成虚拟图像帧。
7.根据权利要求1所述的一种基于增强现实的平滑跟踪方法,其特征在于,所述步骤S06中,合成视频帧是通过虚实合成模块将获得虚拟图形帧与二维可视编码编织物的视频帧进行合成获得。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010408715.6A CN113673283A (zh) | 2020-05-14 | 2020-05-14 | 一种基于增强现实的平滑跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010408715.6A CN113673283A (zh) | 2020-05-14 | 2020-05-14 | 一种基于增强现实的平滑跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113673283A true CN113673283A (zh) | 2021-11-19 |
Family
ID=78537333
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010408715.6A Pending CN113673283A (zh) | 2020-05-14 | 2020-05-14 | 一种基于增强现实的平滑跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113673283A (zh) |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101101505A (zh) * | 2006-07-07 | 2008-01-09 | 华为技术有限公司 | 一种实现三维增强现实的方法及*** |
CN101404086A (zh) * | 2008-04-30 | 2009-04-08 | 浙江大学 | 基于视频的目标跟踪方法及装置 |
CN101520849A (zh) * | 2009-03-24 | 2009-09-02 | 上海水晶石信息技术有限公司 | 基于图像特征点提取与随机树分类的增强现实方法及*** |
CN102855649A (zh) * | 2012-08-23 | 2013-01-02 | 山东电力集团公司电力科学研究院 | 基于orb特征点的高压杆塔高清图像全景拼接方法 |
CN103700069A (zh) * | 2013-12-11 | 2014-04-02 | 武汉工程大学 | 一种基于orb算子的无参考视频平滑度的评价方法 |
WO2014114118A1 (en) * | 2013-01-28 | 2014-07-31 | Tencent Technology (Shenzhen) Company Limited | Realization method and device for two-dimensional code augmented reality |
CN105898594A (zh) * | 2016-04-22 | 2016-08-24 | 北京奇艺世纪科技有限公司 | 控制虚拟现实视频播放的方法和装置 |
CN105931275A (zh) * | 2016-05-23 | 2016-09-07 | 北京暴风魔镜科技有限公司 | 基于移动端单目和imu融合的稳定运动跟踪方法和装置 |
CN106339087A (zh) * | 2016-08-29 | 2017-01-18 | 上海青研科技有限公司 | 一种基于多维坐标的眼球追踪方法及其装置 |
CN106952312A (zh) * | 2017-03-10 | 2017-07-14 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种基于线特征描述的无标识增强现实注册方法 |
CN107016704A (zh) * | 2017-03-09 | 2017-08-04 | 杭州电子科技大学 | 一种基于增强现实的虚拟现实实现方法 |
CN109685913A (zh) * | 2018-12-21 | 2019-04-26 | 西安电子科技大学 | 基于计算机视觉定位的增强现实实现方法 |
CN109859309A (zh) * | 2019-01-14 | 2019-06-07 | 仲恺农业工程学院 | 一种实现仿真教学的物联网教学信息处理***及方法 |
CN109919971A (zh) * | 2017-12-13 | 2019-06-21 | 北京金山云网络技术有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN110120101A (zh) * | 2019-04-30 | 2019-08-13 | 中国科学院自动化研究所 | 基于三维视觉的圆柱体增强现实方法、***、装置 |
CN110753181A (zh) * | 2019-09-29 | 2020-02-04 | 湖北工业大学 | 一种基于特征跟踪和网格路径运动的视频稳像方法 |
CN111062966A (zh) * | 2019-11-05 | 2020-04-24 | 东北大学 | 基于l-m算法和多项式插值对相机跟踪进行优化的方法 |
-
2020
- 2020-05-14 CN CN202010408715.6A patent/CN113673283A/zh active Pending
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101101505A (zh) * | 2006-07-07 | 2008-01-09 | 华为技术有限公司 | 一种实现三维增强现实的方法及*** |
CN101404086A (zh) * | 2008-04-30 | 2009-04-08 | 浙江大学 | 基于视频的目标跟踪方法及装置 |
CN101520849A (zh) * | 2009-03-24 | 2009-09-02 | 上海水晶石信息技术有限公司 | 基于图像特征点提取与随机树分类的增强现实方法及*** |
CN102855649A (zh) * | 2012-08-23 | 2013-01-02 | 山东电力集团公司电力科学研究院 | 基于orb特征点的高压杆塔高清图像全景拼接方法 |
WO2014114118A1 (en) * | 2013-01-28 | 2014-07-31 | Tencent Technology (Shenzhen) Company Limited | Realization method and device for two-dimensional code augmented reality |
CN103700069A (zh) * | 2013-12-11 | 2014-04-02 | 武汉工程大学 | 一种基于orb算子的无参考视频平滑度的评价方法 |
CN105898594A (zh) * | 2016-04-22 | 2016-08-24 | 北京奇艺世纪科技有限公司 | 控制虚拟现实视频播放的方法和装置 |
CN105931275A (zh) * | 2016-05-23 | 2016-09-07 | 北京暴风魔镜科技有限公司 | 基于移动端单目和imu融合的稳定运动跟踪方法和装置 |
CN106339087A (zh) * | 2016-08-29 | 2017-01-18 | 上海青研科技有限公司 | 一种基于多维坐标的眼球追踪方法及其装置 |
CN107016704A (zh) * | 2017-03-09 | 2017-08-04 | 杭州电子科技大学 | 一种基于增强现实的虚拟现实实现方法 |
CN106952312A (zh) * | 2017-03-10 | 2017-07-14 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种基于线特征描述的无标识增强现实注册方法 |
CN109919971A (zh) * | 2017-12-13 | 2019-06-21 | 北京金山云网络技术有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN109685913A (zh) * | 2018-12-21 | 2019-04-26 | 西安电子科技大学 | 基于计算机视觉定位的增强现实实现方法 |
CN109859309A (zh) * | 2019-01-14 | 2019-06-07 | 仲恺农业工程学院 | 一种实现仿真教学的物联网教学信息处理***及方法 |
CN110120101A (zh) * | 2019-04-30 | 2019-08-13 | 中国科学院自动化研究所 | 基于三维视觉的圆柱体增强现实方法、***、装置 |
CN110753181A (zh) * | 2019-09-29 | 2020-02-04 | 湖北工业大学 | 一种基于特征跟踪和网格路径运动的视频稳像方法 |
CN111062966A (zh) * | 2019-11-05 | 2020-04-24 | 东北大学 | 基于l-m算法和多项式插值对相机跟踪进行优化的方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107292965B (zh) | 一种基于深度图像数据流的虚实遮挡处理方法 | |
CN110799991B (zh) | 用于使用卷积图像变换执行同时定位和映射的方法和*** | |
CN107330439B (zh) | 一种图像中物体姿态的确定方法、客户端及服务器 | |
CN111243093B (zh) | 三维人脸网格的生成方法、装置、设备及存储介质 | |
CN106780576B (zh) | 一种面向rgbd数据流的相机位姿估计方法 | |
CN101520904B (zh) | 带有现实环境估算的增强现实的方法及其*** | |
CN108629843B (zh) | 一种实现增强现实的方法及设备 | |
CN101520849B (zh) | 基于图像特征点提取与随机树分类的增强现实方法及*** | |
CN106875437B (zh) | 一种面向rgbd三维重建的关键帧提取方法 | |
JP2019057248A (ja) | 画像処理システム、画像処理装置、画像処理方法及びプログラム | |
CN109711246B (zh) | 一种动态物体识别方法、计算机装置及可读存储介质 | |
GB2520338A (en) | Automatic scene parsing | |
CN107689050B (zh) | 一种基于彩色图像边缘引导的深度图像上采样方法 | |
CN101551732A (zh) | 带有交互功能的增强现实的方法及其*** | |
CN109325444B (zh) | 一种基于三维几何模型的单目无纹理三维物体姿态跟踪方法 | |
CN109977834B (zh) | 从深度图像中分割人手与交互物体的方法和装置 | |
CN110060201B (zh) | 一种全景视频的热点交互方法 | |
CN109829925B (zh) | 一种在抠图任务中提取干净前景的方法及模型训练方法 | |
CN114387346A (zh) | 一种图像识别、预测模型处理方法、三维建模方法和装置 | |
CN112365516B (zh) | 一种增强现实中虚实遮挡处理方法 | |
CN116721419A (zh) | 结合视觉大模型sam的辅助标注方法 | |
CN113673283A (zh) | 一种基于增强现实的平滑跟踪方法 | |
Shibata et al. | Unified image fusion framework with learning-based application-adaptive importance measure | |
WO2023159517A1 (en) | System and method of capturing three-dimensional human motion capture with lidar | |
CN201374082Y (zh) | 基于图像特征点提取与随机树分类的增强现实*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |