CN112819970B - 一种控制方法、装置及电子设备 - Google Patents

一种控制方法、装置及电子设备 Download PDF

Info

Publication number
CN112819970B
CN112819970B CN202110188853.2A CN202110188853A CN112819970B CN 112819970 B CN112819970 B CN 112819970B CN 202110188853 A CN202110188853 A CN 202110188853A CN 112819970 B CN112819970 B CN 112819970B
Authority
CN
China
Prior art keywords
mode
target
feature points
state
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110188853.2A
Other languages
English (en)
Other versions
CN112819970A (zh
Inventor
王晓陆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN202110188853.2A priority Critical patent/CN112819970B/zh
Publication of CN112819970A publication Critical patent/CN112819970A/zh
Application granted granted Critical
Publication of CN112819970B publication Critical patent/CN112819970B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请公开了一种控制方法、装置及电子设备,响应于目标设备以第一模式进行虚拟图像的显示,获取目标特征点,目标特征点表征前后两帧采集图像中显示坐标位置一致的特征点;确定目标特征点在第一状态下的第一数量;确定目标特征点在第二状态下的第二数量,目标设备在第一状态和第二状态下的图像采集环境不同;基于第一数量与第二数量的比值,确定是否将第一模式切换至第二模式,第一模式和第二模式在生成虚拟图像时利用的位姿数据不同。实现了基于图像采集环境不同下的目标特征点的数量进行显示模式的切换,使得目标设备的显示模式与环境相匹配,满足了实际应用需求。

Description

一种控制方法、装置及电子设备
技术领域
本申请涉及信息处理技术领域,更具体的说是涉及一种控制方法、装置及电子设备。
背景技术
增强现实(Augmented Reality,AR)是一种能够把虚拟信息融合到现实环境中的技术,其将原本在现实世界的空间范围中比较难以进行体验的实体信息在电脑等科学技术的基础上,实施模拟仿真处理,叠加将虚拟信息内容在真实世界中加以有效应用。
在AR设备应用中,AR设备需要通过识别环境来计算虚拟图像显示在空间中的坐标,但并不是所有的环境都利于AR设备识别和计算,从而无法满足AR设备的实际需求,影响用户体验效果。
发明内容
有鉴于此,本申请提供如下技术方案:
一种控制方法,包括:
响应于目标设备以第一模式进行虚拟图像的显示,获取目标特征点,所述目标特征点表征前后两帧采集图像中显示坐标位置一致的特征点;
确定所述目标特征点在第一状态下的第一数量;
确定所述目标特征点在第二状态下的第二数量,所述目标设备在第一状态和第二状态下的图像采集环境不同;
基于所述第一数量与所述第二数量的比值,确定是否将所述第一模式切换至第二模式,所述第一模式和所述第二模式在生成所述虚拟图像时利用的位姿数据不同。
可选地,所述获取目标特征点,包括:
响应于所述目标设备采集到左眼图像和右眼图像,将左眼图像和右眼图像中显示坐标位置一致的特征点确定为目标特征点;
或者,
响应于所述目标设备采集到左眼二维图像和右眼二维图像,对所述左眼二维图像进行空间投影,获得第一空间点;
对所述右眼二维图像进行空间投影,获得第二空间点;
将所述第一空间点和所述第二空间点中空间坐标一致的空间点确定为目标特征点。
可选地,所述获取目标特征点,包括:
获取第一时刻的特征点以及第二时刻的特征点,所述第一时刻与所述第二时刻具有时间先后的关联关系;
将所述第一时刻的特征点以及所述第二时刻的特征点中显示位置一致的特征点确定为目标特征点。
可选地,所述图像采集环境包括图像采集时间环境、图像采集空间环境和图像采集场景环境中的一种。
可选地,所述基于所述第一数量与所述第二数量的比值,确定是否将所述第一模式切换至第二模式,包括:
若所述第一数量与所述第二数量的比值小于目标阈值,将所述第一模式切换至第二模式,以使所述目标设备以所述第二模式进行虚拟图像的显示,其中,在所述第一模式和所述第二模式下分别获得的用于生成虚拟图像的位姿数据的数量不同。
可选地,所述方法还包括:
确定所述目标特征点在第三状态下的第三数量;
若所述第三数量与所述第二数量的比值不小于所述目标阈值,将所述第二模式切换至所述第一模式。
可选地,所述方法还包括:
若所述目标设备以第二模式进行虚拟图像的显示,基于当前目标特征点以与所述第二模式对应的计算方式获得第一位姿数据;
基于当前目标特征点以与所述第一模式对应的计算方式获得第二位姿数据;
若所述第一位姿数据与所述第二位姿数据的差值大于目标差值,将所述第二模式切换至第三模式,所述第三模式对应的位姿数据与所述第二模式对应的第一位姿数据不同。
一种控制装置,包括:
获取单元,用于响应于目标设备以第一模式进行虚拟图像的显示,获取目标特征点,所述目标特征点表征前后两帧采集图像中显示坐标位置一致的特征点;
第一确定单元,用于确定所述目标特征点在第一状态下的第一数量;
第二确定单元,用于确定所述目标特征点在第二状态下的第二数量,所述目标设备在第一状态和第二状态下的图像采集环境不同;
第三确定单元,用于基于所述第一数量与所述第二数量的比值,确定是否将所述第一模式切换至第二模式,所述第一模式和所述第二模式在生成所述虚拟图像时利用的位姿数据不同。
一种存储介质,所述存储介质存储有计算机可执行指令,所述计算机可执行指令被处理器执行时用于执行如上述中任一项所述的控制方法。
一种电子设备,包括:
存储器,用于存储应用程序和所述应用程序运行所产生的数据;
处理器,用于执行所述应用程序,以实现:
响应于目标设备以第一模式进行虚拟图像的显示,获取目标特征点,所述目标特征点表征前后两帧采集图像中显示坐标位置一致的特征点;
确定所述目标特征点在第一状态下的第一数量;
确定所述目标特征点在第二状态下的第二数量,所述目标设备在第一状态和第二状态下的图像采集环境不同;
基于所述第一数量与所述第二数量的比值,确定是否将所述第一模式切换至第二模式,所述第一模式和所述第二模式在生成所述虚拟图像时利用的位姿数据不同。
经由上述的技术方案可知,本申请公开的一种控制方法、装置及电子设备,响应于目标设备以第一模式进行虚拟图像的显示,获取目标特征点,目标特征点表征前后两帧采集图像中显示坐标位置一致的特征点;确定目标特征点在第一状态下的第一数量;确定目标特征点在第二状态下的第二数量,目标设备在第一状态和第二状态下的图像采集环境不同;基于第一数量与第二数量的比值,确定是否将第一模式切换至第二模式,第一模式和第二模式在生成虚拟图像时利用的位姿数据不同。实现了基于图像采集环境不同下的目标特征点的数量进行显示模式的切换,使得目标设备的显示模式与环境相匹配,满足了实际应用需求。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种控制方法的流程示意图;
图2为本申请实施例提供的一种应用场景的示意图;
图3为本申请实施例提供的一种控制装置的结构示意图;
图4为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供了一种控制方法,应用于AR(Augmented Reality,增强现实)设备,使得AR设备在不同的换将下能够进行对应显示模式的切换,保证虚拟图像在空间中显示和锚定准确,提升用户的体验效果。
AR(Augmented Reality,增强现实)技术是一种将虚拟信息与真实世界融合的技术,用户可以通过AR设备观看到叠加在真实场景中的虚拟效果,即用户看到的是虚拟图像,例如,可以看到叠加在真实的室内环境中的虚拟物品,从而完成对该虚拟物品的体验。
参见图1,其示出了本申请实施例提供的一种控制方法的流程示意图,该方法可以包括以下步骤:
S101、响应于目标设备以第一模式进行虚拟图像的显示,获取目标特征点。
在本申请实施例中目标设备为AR设备,如AR智能眼镜,目标设备显示的虚拟图像可以是呈现给用户的最终的场景图像,即将虚拟信息与真实场景叠加后的虚拟效果图像,也可以是虚拟信息对应的图像,如将虚拟杯子与真实室内场景叠加后的虚拟效果图像,也可以是虚拟杯子对应的虚拟图像。
第一模式是目标设备显示模式的一种,其中,显示模式是指显示和锚定虚拟图像的模式,即利用何种位姿数据生成虚拟图像的模式。目标特征点表征前后两帧采集图像中显示坐标位置一致的特征点,特征点是目标设备(即AR设备)通过深度摄像头获取空间中的点云数据的各个特征点,即众多的特征点即可构成特征点云,简称点云。特征点是指捕获的摄像头图像中的视觉差异特征点,基于这些特征点进行多层反复筛选,得到一定数量的目标特征点,这些目标特征点可以用于计算得到位姿数据,如AR设备的相机位姿数据,在某些应用场景中也可以将目标特征点成为稳定的特征点,即前后两帧采集图像中显示坐标位置一致的特征点。
S102、确定目标特征点在第一状态下的第一数量。
S103、确定目标特征点在第二状态下的第二数量。
S104、基于第一数量与第二数量的比值,确定是否将第一模式切换至第二模式。
需要说明的是,目标设备在第一状态和第二状态下的图像采集环境不同,该图像采集环境不同可以是指图像采集时间环境不同,图像采集空间环境不同,又或者图像采集场景环境不同中的一种。目标设备在不同的状态下获取到的目标特征点的数量也是不同的。由于目标设备是由用户佩戴的,因此目标设备处于的状态与其对应的用户有关,如用户佩戴目标设备的环境、用户注视点的转移或者用户的移动等。目标设备呈现虚拟图像是一个实时的过程,因此获取目标特征点也是一个实时的过程,为了能够使得虚拟设备显示虚拟图像的显示模式符合环境特点,所以需要确定在不同状态下的目标特征点。例如,第一状态可以是用户注视第一区域时目标设备的状态,第二状态可以是用户注视第二区域时目标设备的状态。目标特征点可以是稳定的特征点,即在连续筛选特征点的过程中,根据最新的稳定的特征点数量和最初筛选出的稳定的特征点的数量来确定显示模式,其中,最新的稳定的特征点数量对应第一数量,最初筛选出的确定的特征点的数量对应第二数量。
然后基于第一数量与第二数量的比值来确定是否需要切换目标设备的显示模式,即是否将第一模式切换至第二模式。第一模式和第二模式在生成虚拟图像时利用的位姿数据不同。位姿是指一个物体的位置和方向,其中,位置数据可以是指维度、经度、海拔高度,方向为方向角、仰俯角、横滚角。一个物体的位置可以用(x,y,z)来表示。而方向可以用(α,β,γ)来表示,他们是表示围绕三个坐标轴旋转的角度。具体的,可以通过确定显示虚拟图像上的目标特征点,然后基于目标特征点对应的坐标参数,以及目标设备对应的传感器获取的运动数据进行计算,得到位姿数据,该位姿数据是指目标设备的摄像头的位姿数据,也称为相机位姿数据。
举例说明,第一模式可以是6DoF(Degrees OfFreedom,自由度)模式,第二模式可以是3DoF模式,3DoF可以指3个转动角度的自由度,如佩戴目标设备的使用者头部的不同方向的转动,但其无法检测头部的前后左右的空间位移。6DoF可以是在3DoF基础上,增加了佩戴目标设备之勇者身体移动带来的上下前后左右移动的变化,能够更好地实现对使用者的跟踪定位。
本申请实施例提供了一种控制方法,响应于目标设备以第一模式进行虚拟图像的显示,获取目标特征点,目标特征点表征前后两帧采集图像中显示坐标位置一致的特征点;确定目标特征点在第一状态下的第一数量;确定目标特征点在第二状态下的第二数量,目标设备在第一状态和第二状态下的图像采集环境不同;基于第一数量与第二数量的比值,确定是否将第一模式切换至第二模式,第一模式和第二模式在生成虚拟图像时利用的位姿数据不同。实现了基于图像采集环境不同下的目标特征点的数量进行显示模式的切换,使得目标设备的显示模式与环境相匹配,满足了实际应用需求。
在本申请实施例中可以通过SLAM(Simultaneous Localization And Mapping,同步定位与地图构建)的方式实时检测点云数据的状态,然后根据点云数据中特征点的状态确定目标特征点。具体的,在本申请实施例中获取目标特征点可以通过以下方式实现:
在一种可能的实现方式中,响应于目标设备采集到左眼图像和右眼图像,将左眼图像和右眼图像中显示坐标位置一致的特征点确定为目标特征点。
目标设备为AR设备时,通常会包括左眼显示设备和右眼显示设备,当左眼显示设备和右眼显示设备显示虚拟物体对应的左眼图像和右眼图像,当左眼图像和右眼图像中的某些特征点的显示坐标位置一致或者误差较小时,可以将该特征点作为目标特征点,即稳定的特征点。其中,特征点是指捕获的摄像头图像中的视觉差异特征点,如从图像中明暗、颜色、灰度差异较大的点中挑选出来的,具体的,如虚拟物体的边缘点。
在另一种可能的实施方式中,可以响应于目标设备采集到左眼二维图像和右眼二维图像,对左眼二维图像进行空间投影,获得第一空间点;对右眼二维图像进行空间投影,获得第二空间点;对第一空间点和第二空间中空间坐标一致的空间点确定为目标特征点。
具体的,可以通过获取多个左眼二维图像,然后根据这些多个左眼二维图像中包括的物体在点云数据中的三维空间位置信息,即得到与该三维空间位姿信息对应的第一空间点,同理,可以基于获取到的多个右眼二维图像投影得到的第二空间点。将第一空间点和第二空间点中空间坐标一致的空间点确定为稳定的空间点,即目标特征点。
在另一种可能的实施方式中,还可以通过获取第一时刻的特征点以及第二时刻的特征点,将第一时刻的特征点以及第二时刻的特征点中显示位置一致的特征点确定为目标特征点。
其中,第一时刻与第二时刻具有时间先后的关联关系,例如第一时刻为当前时刻,第二时刻为当前时刻的下一秒。即可以在第一时刻选择若干个特征点,然后在第二时刻再选择对应数量的特征点,将这两个时刻的特征点进行匹配,将匹配上的特征点确定为目标特征点,具体的可以是将特征点中显示位置一致的特征点确定为目标特征点。对应的,也可以通过ICP(Iterative Closest Point,迭代最近点算法),分批次随机选取一定数量的特征点去匹配。以使得不同的坐标下的点云数据合并到同一个坐标***中,首先是找到一个可用的变换,配准操作实际是要找到从坐标系1到坐标系2的一个刚性变换。ICP算法本质上是基于最小二乘法的最优配准方法。该算法重复进行选择对应关系点对,计算最优刚体变换,直到满足正确配准的收敛精度要求。ICP算法的目的是要找到待配准点云数据与参考云数据之间的旋转参数R和平移参数T,使得两点数据之间满足某种度量准则下的最优匹配。从而获得稳定的特征点,即目标特征点。
需要说明的是,在本申请实施例中确定目标特征点的数量时,分别在不同的图像采集环境来确定。对应的可以是图像采集时间环境不同时确定目标特征点的数量,虽然筛选目标特征点的过程是实时进行的,但是为了能够降低处理资源的占用,也能更加符合实际应用场景的需求,可以是在固定周期后确定数量并比较,如每隔10秒获取目标特征点数量,以根据目标特征点数量来判断是否切换目标设备的显示模式。此外,也可以是基于图像采集空间环境的变化来获取目标特征点的数量,如采集的图像为包括某个参考物时进行一次目标特征点数量的获取,再将用户注视空白墙面时再次获取目标特征点的数量,使得根据数量来判断是否进行显示模式的切换。也可以是基于图像采集场景环境的不同来获取目标特征点的数量,例如,在正常的环境中即室内环境来确定目标特征点的数量,当目标设备的佩戴环境在行驶的汽车时再确定一次目标特征点的数量,然后确定是否对目标设备进行显示模式的切换。
由于本申请实施例中对目标设备的显示模式的切换控制是一个实时判断的过程,即根据目标设备图像采集环境的不同实时切换显示模式。如确定目标特征点在第三状态下的第三数量,根据第三数量和第二数量的比值,确定是否将当前的第二模式切换至第一模式。第三状态是指与第二状态不同的状态。
具体的,在本申请实施例中基于第一数量与第二数量的比值,确定是否将第一模式切换至第二模式,包括:
若所述第一数量与第二数量的比值小于目标阈值,将所述第一模式切换至第二模式,以使所述目标设备以所述第二模式进行虚拟图像的显示,其中,在所述第一模式和所述第二模式下分别获得的用于生成虚拟图像的位姿数据的数量不同。
该目标阈值可以根据实际应用场景确定的显示模式切换的临界值。以目标设备为AR设备进行举例说明,AR设备通过深度摄像头获取空间中点云数据,基于这些特征点进行反复筛选,得到第一数量稳定的特征点,将此时的稳定的特征点作为目标特征点,对应的数量假设为N,在这一连续筛选特征点的过程中,根据最新的稳定的特征点数量M和最初筛选出的特征点N的比例,确定是否需要进行显示模式的切换,如果N/M的值低于阈值A,将第一模式切换为第二模式,当N/M的值高于等于阈值A,则再次切换为第一模式。需要说明的是,第一模式和第二模式分别获得的用于生成虚拟图像的位姿数数据的数量不同,即在第一模式和第二模式中用于生成位姿数据的转动角度的自由度。
在本申请实施例中目标设备对虚拟图像进行显示的模式除了第一模式、第二模式之外还可以有第三模式,这三种模式的位姿数据均不相同,而位姿数据中包括转动角度的自由度,对应的可以是第一模式包括的自由度最多,而第三模式包括的自由度最少。例如,第一模式为对应的6DoF模式,即包括6个转动角度的自由度,第二模式对应为3DoF模式,即包括3个转动角度的自由度,第三模式对应为Head Locked模式(头瞄模式)即不做任何锚定的模式,只建立头和眼睛的关联关系的显示模式。
具体的,在确定是否切换为第三模式时,可以通过以下操作实现:
若所述目标设备以第二模式进行虚拟图像的显示,基于当前目标特征点以与所述第二模式对应的计算方式获得第一位姿数据;
基于当前目标特征点以与所述第一模式对应的计算方式获得第二位姿数据;
若所述第一位姿数据与所述第二位姿数据的差值大于目标差值,将所述第二模式切换至第三模式。
其中,第三模式对应的位姿数据与所述第二模式对应的第一位姿数据不同。需要说明的是,目标设备以第二模式进行虚拟图像的显示时,可以基于目标特征点的变化或者计算,来确定是否将第二模式切换至第一模式,或者将第二模式切换至第三模式。
不同的虚拟图像的显示模式对应的位姿数据的计算方式是不同的,具体的在计算过程中获取的数据来源也是不同的,即获取数据来源的采集单元也是不同的。例如,第一模式为6DoF模式,第二模式为3DoF模式,第三模式为Head Locked模式。在6DoF模式中SLAM计算主要数据来源为深度相机(Camera)和IMU(Inertial measurement unit,惯性测量单元)两部分,3DoF显示模式,目标设备主要依据IMU数据,若此时仍采用6DoF模式对应的计算方式计算位姿数据,得出的位姿数据会由于深度相机采集的数据的缺失而与只通过IMU数据对应的计算方式得出的位姿数据的坐标值相差较大。通过这两个数值来判断6DoF模式计算的数据的可信度,当该可信度低于标准B时,将目标设备的显示模式切换为Head Locked模式。其中,IMU提供数据有三个轴上的加速度以及三个轴的陀螺数据也也就是角速度数据,通过加速度和角速度的测量,可以预测下一时刻的位置,有了下一时刻的预测数据,和下一时刻的测量数据,可以迭代进行下去,以获得对应的位姿数据。
因此,当目标设备的显示模式为6DoF模式时,根据稳定特征点的数值比例来判断是否切换为3DoF显示模式,3DoF显示模式时,根据当前深度相机和IMU融合数据计算得出6DoF数据和只通过IMU计算得出的数据来判断6DoF数据的可信程度,根据可信程度判断是否切换为Head Locked模式,通过切换模式,可以让目标设备适配不同的使用环境。
参见图2,其示出了本申请实施例提供的一种应用场景的示意图,在图2中,用户佩戴AR眼镜,通过AR眼镜识别环境来计算虚拟图像显示在空间中的坐标,其中,虚拟图像是指图2中的树的图像,而真是场景对应的是房子所在的场景,因此,用户通过AR眼镜可以看到叠加在房子所在场景中的虚拟树。但是用户佩戴AR眼镜的环境并不是固定不变的,有的环境不利于AR眼镜识别和计算,如空白的墙面,不断移动、旋转变化的环境,如行驶的汽车,飞机等场所,会因为空间环境的特征点不做,或不断变化导致虚拟图像在空间中的锚定不准确,其中,锚定是指在真实场景对应的图像中记录虚拟物***置的方式。可以同目标点的数量,或者以获得的目标点进行计算得到的位姿数据来判断切换至何种显示模式,如第一模式、第二模式或者第三模式。具体的如何切换请参见上述实施例的描述,此处不进行详述。需要说明的是,在图2中用户看到的虚拟图像是对应其中一种显示模式的图像,在切换不同的显示模式时,会使得用户看到的图像与对应的显示模式相匹配。因此,本申请实施例中可以通过切换目标设备的显示模式,让目标设备适配不同的使用环境。
在本申请实施例中还提供了一种控制装置,参见图3,包括:
获取单元10,用于响应于目标设备以第一模式进行虚拟图像的显示,获取目标特征点,所述目标特征点表征前后两帧采集图像中显示坐标位置一致的特征点;
第一确定单元20,用于确定所述目标特征点在第一状态下的第一数量;
第二确定单元30,用于确定所述目标特征点在第二状态下的第二数量,所述目标设备在第一状态和第二状态下的图像采集环境不同;
第三确定单元40,用于基于所述第一数量与所述第二数量的比值,确定是否将所述第一模式切换至第二模式,所述第一模式和所述第二模式在生成所述虚拟图像时利用的位姿数据不同。
本申请实施例提供了一种控制装置,响应于目标设备以第一模式进行虚拟图像的显示,获取目标特征点,目标特征点表征前后两帧采集图像中显示坐标位置一致的特征点;确定目标特征点在第一状态下的第一数量;确定目标特征点在第二状态下的第二数量,目标设备在第一状态和第二状态下的图像采集环境不同;基于第一数量与第二数量的比值,确定是否将第一模式切换至第二模式,第一模式和第二模式在生成虚拟图像时利用的位姿数据不同。实现了基于图像采集环境不同下的目标特征点的数量进行显示模式的切换,使得目标设备的显示模式与环境相匹配,满足了实际应用需求。
可选地,获取单元10包括:
第一确定子单元,用于响应于所述目标设备采集到左眼图像和右眼图像,将左眼图像和右眼图像中显示坐标位置一致的特征点确定为目标特征点;
或者,
第二确定子单元,用于响应于所述目标设备采集到左眼二维图像和右眼二维图像,对所述左眼二维图像进行空间投影,获得第一空间点;对所述右眼二维图像进行空间投影,获得第二空间点;将所述第一空间点和所述第二空间点中空间坐标一致的空间点确定为目标特征点。
可选地,获取单元10还包括:
第三确定子单元,用于获取第一时刻的特征点以及第二时刻的特征点,所述第一时刻与所述第二时刻具有时间先后的关联关系;将所述第一时刻的特征点以及所述第二时刻的特征点中显示位置一致的特征点确定为目标特征点。
可选地,所述图像采集环境包括图像采集时间环境、图像采集空间环境和图像采集场景环境中的一种。
可选地,所述第三确定单元包括:
第一切换子单元,用于若所述第一数量与所述第二数量的比值小于目标阈值,将所述第一模式切换至第二模式,以使所述目标设备以所述第二模式进行虚拟图像的显示,其中,在所述第一模式和所述第二模式下分别获得的用于生成虚拟图像的位姿数据的数量不同。
可选地,所述装置还包括:
第二切换子单元,用于确定所述目标特征点在第三状态下的第三数量;若所述第三数量与所述第二数量的比值不小于所述目标阈值,将所述第二模式切换至所述第一模式。
可选地,所述装置还包括:
第三切换子单元,用于若所述目标设备以第二模式进行虚拟图像的显示,基于当前目标特征点以与所述第二模式对应的计算方式获得第一位姿数据;基于当前目标特征点以与所述第一模式对应的计算方式获得第二位姿数据;若所述第一位姿数据与所述第二位姿数据的差值大于目标差值,将所述第二模式切换至第三模式,所述第三模式对应的位姿数据与所述第二模式对应的第一位姿数据不同。
需要说明的是,本实施例中各单元的具体实现可以参考前文中的相应内容,此处不再详述。
参考图4,为本申请实施例提供的一种电子设备的结构示意图。本实施例中的技术方案主要用于使得目标设备的显示模式与环境相匹配,满足了实际应用需求。
具体的,本实施例中的电子设备可以包括以下结构:
存储器401,用于存储应用程序和所述应用程序运行所产生的数据;
处理器402,用于执行所述应用程序,以实现:
响应于目标设备以第一模式进行虚拟图像的显示,获取目标特征点,所述目标特征点表征前后两帧采集图像中显示坐标位置一致的特征点;
确定所述目标特征点在第一状态下的第一数量;
确定所述目标特征点在第二状态下的第二数量,所述目标设备在第一状态和第二状态下的图像采集环境不同;
基于所述第一数量与所述第二数量的比值,确定是否将所述第一模式切换至第二模式,所述第一模式和所述第二模式在生成所述虚拟图像时利用的位姿数据不同。
从上述技术方案可以看出,本申请实施提供的一种电子设备中,响应于目标设备以第一模式进行虚拟图像的显示,获取目标特征点,目标特征点表征前后两帧采集图像中显示坐标位置一致的特征点;确定目标特征点在第一状态下的第一数量;确定目标特征点在第二状态下的第二数量,目标设备在第一状态和第二状态下的图像采集环境不同;基于第一数量与第二数量的比值,确定是否将第一模式切换至第二模式,第一模式和第二模式在生成虚拟图像时利用的位姿数据不同。实现了基于图像采集环境不同下的目标特征点的数量进行显示模式的切换,使得目标设备的显示模式与环境相匹配,满足了实际应用需求。
需要说明的是,本实施例中处理器的具体实现可以参考前文中的相应内容,此处不再详述。
在本申请实施例中还提供了一种存储介质,所述存储介质存储有计算机可执行指令,所述计算机可执行指令被处理器执行时用于执行如上述中任一项所述的控制方法。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种控制方法,包括:
响应于目标设备以第一模式进行虚拟图像的显示,获取目标特征点,所述目标特征点表征前后两帧采集图像中显示坐标位置一致的特征点;
确定所述目标特征点在第一状态下的第一数量;
确定所述目标特征点在第二状态下的第二数量,所述目标设备在第一状态和第二状态下的图像采集环境不同;
基于所述第一数量与所述第二数量的比值,确定是否将所述第一模式切换至第二模式,所述第一模式和所述第二模式在生成所述虚拟图像时利用的位姿数据不同。
2.根据权利要求1所述的方法,所述获取目标特征点,包括:
响应于所述目标设备采集到左眼图像和右眼图像,将左眼图像和右眼图像中显示坐标位置一致的特征点确定为目标特征点;
或者,
响应于所述目标设备采集到左眼二维图像和右眼二维图像,对所述左眼二维图像进行空间投影,获得第一空间点;
对所述右眼二维图像进行空间投影,获得第二空间点;
将所述第一空间点和所述第二空间点中空间坐标一致的空间点确定为目标特征点。
3.根据权利要求1所述的方法,所述获取目标特征点,包括:
获取第一时刻的特征点以及第二时刻的特征点,所述第一时刻与所述第二时刻具有时间先后的关联关系;
将所述第一时刻的特征点以及所述第二时刻的特征点中显示位置一致的特征点确定为目标特征点。
4.根据权利要求1所述的方法,所述图像采集环境包括图像采集时间环境、图像采集空间环境和图像采集场景环境中的一种。
5.根据权利要求1所述的方法,所述基于所述第一数量与所述第二数量的比值,确定是否将所述第一模式切换至第二模式,包括:
若所述第一数量与所述第二数量的比值小于目标阈值,将所述第一模式切换至第二模式,以使所述目标设备以所述第二模式进行虚拟图像的显示,其中,在所述第一模式和所述第二模式下分别获得的用于生成虚拟图像的位姿数据的数量不同。
6.根据权利要求5所述的方法,所述方法还包括:
确定所述目标特征点在第三状态下的第三数量;
若所述第三数量与所述第二数量的比值不小于所述目标阈值,将所述第二模式切换至所述第一模式。
7.根据权利要求1所述的方法,所述方法还包括:
若所述目标设备以第二模式进行虚拟图像的显示,基于当前目标特征点以与所述第二模式对应的计算方式获得第一位姿数据;
基于当前目标特征点以与所述第一模式对应的计算方式获得第二位姿数据;
若所述第一位姿数据与所述第二位姿数据的差值大于目标差值,将所述第二模式切换至第三模式,所述第三模式对应的位姿数据与所述第二模式对应的第一位姿数据不同。
8.一种控制装置,包括:
获取单元,用于响应于目标设备以第一模式进行虚拟图像的显示,获取目标特征点,所述目标特征点表征前后两帧采集图像中显示坐标位置一致的特征点;
第一确定单元,用于确定所述目标特征点在第一状态下的第一数量;
第二确定单元,用于确定所述目标特征点在第二状态下的第二数量,所述目标设备在第一状态和第二状态下的图像采集环境不同;
第三确定单元,用于基于所述第一数量与所述第二数量的比值,确定是否将所述第一模式切换至第二模式,所述第一模式和所述第二模式在生成所述虚拟图像时利用的位姿数据不同。
9.一种存储介质,所述存储介质存储有计算机可执行指令,所述计算机可执行指令被处理器执行时用于执行如权利要求1至7中任一项所述的控制方法。
10.一种电子设备,包括:
存储器,用于存储应用程序和所述应用程序运行所产生的数据;
处理器,用于执行所述应用程序,以实现:
响应于目标设备以第一模式进行虚拟图像的显示,获取目标特征点,所述目标特征点表征前后两帧采集图像中显示坐标位置一致的特征点;
确定所述目标特征点在第一状态下的第一数量;
确定所述目标特征点在第二状态下的第二数量,所述目标设备在第一状态和第二状态下的图像采集环境不同;
基于所述第一数量与所述第二数量的比值,确定是否将所述第一模式切换至第二模式,所述第一模式和所述第二模式在生成所述虚拟图像时利用的位姿数据不同。
CN202110188853.2A 2021-02-19 2021-02-19 一种控制方法、装置及电子设备 Active CN112819970B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110188853.2A CN112819970B (zh) 2021-02-19 2021-02-19 一种控制方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110188853.2A CN112819970B (zh) 2021-02-19 2021-02-19 一种控制方法、装置及电子设备

Publications (2)

Publication Number Publication Date
CN112819970A CN112819970A (zh) 2021-05-18
CN112819970B true CN112819970B (zh) 2023-12-26

Family

ID=75865488

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110188853.2A Active CN112819970B (zh) 2021-02-19 2021-02-19 一种控制方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN112819970B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113932805B (zh) * 2021-10-12 2024-02-23 天翼数字生活科技有限公司 用于提高ar虚拟对象定位准确性与速度的方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107705333A (zh) * 2017-09-21 2018-02-16 歌尔股份有限公司 基于双目相机的空间定位方法及装置
WO2018235923A1 (ja) * 2017-06-21 2018-12-27 国立大学法人 東京大学 位置推定装置、位置推定方法、及びプログラム
CN112258658A (zh) * 2020-10-21 2021-01-22 河北工业大学 一种基于深度相机的增强现实可视化方法及应用

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013225245A (ja) * 2012-04-23 2013-10-31 Sony Corp 画像処理装置、画像処理方法及びプログラム
EP3176755A4 (en) * 2014-08-01 2018-02-28 Sony Corporation Information processing device, information processing method, and program
US11189098B2 (en) * 2019-06-28 2021-11-30 Snap Inc. 3D object camera customization system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018235923A1 (ja) * 2017-06-21 2018-12-27 国立大学法人 東京大学 位置推定装置、位置推定方法、及びプログラム
CN107705333A (zh) * 2017-09-21 2018-02-16 歌尔股份有限公司 基于双目相机的空间定位方法及装置
CN112258658A (zh) * 2020-10-21 2021-01-22 河北工业大学 一种基于深度相机的增强现实可视化方法及应用

Also Published As

Publication number Publication date
CN112819970A (zh) 2021-05-18

Similar Documents

Publication Publication Date Title
US10507381B2 (en) Information processing device, position and/or attitude estimiating method, and computer program
JP6359644B2 (ja) コンピュータビジョンアプリケーション初期化を容易にするための方法
US10852847B2 (en) Controller tracking for multiple degrees of freedom
CN107113376B (zh) 一种图像处理方法、装置及摄像机
US10884576B2 (en) Mediated reality
US10999412B2 (en) Sharing mediated reality content
CN106575437B (zh) 信息处理装置、信息处理方法以及程序
EP3441788A1 (en) Apparatus and method for generating a representation of a scene
US20170078570A1 (en) Image processing device, image processing method, and image processing program
JP6723743B2 (ja) 情報処理装置、情報処理方法、およびプログラム
CN110969706B (zh) 增强现实设备及其图像处理方法、***以及存储介质
CN112819970B (zh) 一种控制方法、装置及电子设备
KR101947372B1 (ko) Hmd에 위치 보정 영상을 제공하는 방법 및 hmd에 위치 보정 영상을 표시하는 방법, 그리고 이를 이용한 위치 보정 영상을 표시하는 hmd
US11275434B2 (en) Information processing apparatus, information processing method, and storage medium
CA3131980A1 (en) Processing of depth maps for images
JP6168597B2 (ja) 情報端末装置
CN115202475A (zh) 显示方法、装置、电子设备及计算机可读存储介质
US12026903B2 (en) Processing of depth maps for images
US11822851B2 (en) Information display system, information display method, and processing device
US20230122185A1 (en) Determining relative position and orientation of cameras using hardware
JP6890524B2 (ja) 姿勢制御システム
CN117710445A (zh) 一种应用于ar设备的目标定位方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant