CN111199583A - 一种虚拟内容显示方法、装置、终端设备及存储介质 - Google Patents

一种虚拟内容显示方法、装置、终端设备及存储介质 Download PDF

Info

Publication number
CN111199583A
CN111199583A CN201811368606.5A CN201811368606A CN111199583A CN 111199583 A CN111199583 A CN 111199583A CN 201811368606 A CN201811368606 A CN 201811368606A CN 111199583 A CN111199583 A CN 111199583A
Authority
CN
China
Prior art keywords
virtual model
target
model
initial
initial virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811368606.5A
Other languages
English (en)
Other versions
CN111199583B (zh
Inventor
吴宜群
蔡丽妮
戴景文
贺杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Virtual Reality Technology Co Ltd
Original Assignee
Guangdong Virtual Reality Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Virtual Reality Technology Co Ltd filed Critical Guangdong Virtual Reality Technology Co Ltd
Priority to CN201811368606.5A priority Critical patent/CN111199583B/zh
Publication of CN111199583A publication Critical patent/CN111199583A/zh
Application granted granted Critical
Publication of CN111199583B publication Critical patent/CN111199583B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请实施例公开了一种虚拟内容显示方法、装置、终端设备及存储介质,涉及显示技术领域。该虚拟内容显示方法应用于终端设备,该虚拟内容显示方法包括:识别目标标记物,得到所述目标标记物的识别结果,所述识别结果至少包括所述终端设备相对所述目标标记物的空间位置信息;基于所述空间位置信息,显示初始虚拟模型;获取所述初始虚拟模型对应的至少一个目标虚拟模型;将所述目标虚拟模型叠加显示于所述初始虚拟模型。本方法可以实现虚拟模型之间的叠加显示,提升显示效果。

Description

一种虚拟内容显示方法、装置、终端设备及存储介质
技术领域
本申请涉及显示技术领域,更具体地,涉及一种虚拟内容显示方法、装置、终端设备及存储介质。
背景技术
在日常生活中,用户通常通过观察实物或者与实物对应的图像,以了解实物的信息。由于实物容易受到空间的限制,不能随时随地对实物进行查看,所以更多的是利用图像来显示实物。传统的图像显示,通常是利用手机、平板等电子设备进行显示,但是这种显示方式显示效果不佳。
发明内容
本申请实施例提出了一种虚拟内容显示方法、装置、终端设备及存储介质,能够提升虚拟模型的显示效果。
第一方面,本申请实施例提供了一种虚拟内容显示方法,应用于终端设备,所述方法包括:识别目标标记物,得到目标标记物的识别结果,识别结果至少包括终端设备相对目标标记物的空间位置信息;基于空间位置信息,显示初始虚拟模型;获取初始虚拟模型对应的至少一个目标虚拟模型;将目标虚拟模型叠加显示于初始虚拟模型。
第二方面,本申请实施例提供了一种虚拟内容显示装置,应用于终端设备,所述装置包括:识别模块、显示模块、获取模块以及叠加模块,其中,识别模块用于识别目标标记物,得到目标标记物的识别结果,识别结果至少包括终端设备相对目标标记物的空间位置信息;显示模块用于基于空间位置信息,显示初始虚拟模型;获取模块用于获取初始虚拟模型对应的至少一个目标虚拟模型;叠加模块用于将目标虚拟模型叠加显示于初始虚拟模型。
第三方面,本申请实施例提供了一种终端设备,包括:一个或多个处理器;存储器;一个或多个应用程序,其中一个或多个应用程序被存储在存储器中并被配置为由一个或多个处理器执行,一个或多个程序配置用于执行上述第一方面提供的虚拟内容显示方法。
第四方面,本申请实施例提供了一种计算机可读取存储介质,计算机可读取存储介质中存储有程序代码,程序代码可被处理器调用执行上述第一方面提供的虚拟内容显示方法。
本申请提供的方案,应用于终端设备,通过识别目标标记物,得到终端设备相对目标标记物的空间位置信息,并根据空间位置信息对初始虚拟模型进行显示,然后获取与初始虚拟模型对应的至少一个目标虚拟模型,最后将目标虚拟模型叠加显示于初始虚拟模型,从而实现根据实际标记物的空间位置,将虚拟模型显示于虚拟空间,使用户可以观察到虚拟模型叠加于真实世界的效果,实现虚拟模型间的叠加显示,提升了虚拟模型的显示效果。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了一种适用于本申请实施例的应用场景的示意图。
图2示出了根据本申请一个实施例的虚拟内容显示方法流程图。
图3示出了根据本申请实施例的一种显示效果示意图。
图4示出了根据本申请实施例的另一种显示效果示意图。
图5示出了根据本申请实施例的再一种显示效果示意图。
图6示出了根据本申请另一个实施例的虚拟内容显示方法流程图。
图7示出了本申请实施例的虚拟内容显示方法中的步骤S220的流程图。
图8示出了根据本申请实施例的一种显示效果示意图。
图9示出了本申请实施例的虚拟内容显示方法中的步骤S230的流程图。
图10示出了根据本申请实施例的另一种显示效果示意图。
图11示出了本申请实施例的虚拟内容显示方法中的步骤S240的流程图。
图12示出了本申请一个实施例的标记物与终端设备距离示意图。
图13示出了本申请一个实施例的标记物的摆放位置与图像采集装置的视野范围的边界位置之间的位置关系的示意图。
图14示出了本申请一个实施例提供的标记物的位置与图像采集装置的视野范围的边界位置之间的距离的示意图。
图15示出了根据本申请一个实施例的标记物相对终端设备的姿态信息示意图。
图16示出了本申请一个实施例的提供的根据标记物的位置变化预测终端设备运动方向的示意图。
图17示出了根据本申请一个实施例的虚拟内容显示装置的框图。
图18示出了根据本申请一个实施例的虚拟内容显示装置中显示模块的框图。
图19示出了根据本申请一个实施例的虚拟内容显示装置中叠加模块的框图。
图20是本申请实施例的用于执行根据本申请实施例的虚拟内容显示方法的终端设备的框图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。
在日常生活中,用户为了了解实物的信息,通常观察实体模型或者虚拟模型来让用户直观、方便地观察实物的细节和展示效果,如家居建材展厅、卖场、博览会、展销会等的样品展示,服装的样品展示,玩具模型的样品展示。但由于实体模型容易受到空间的限制,不能随时随地对模型进行查看,所以更多的是利用虚拟模型来显示实物。而传统的虚拟模型的显示,通常是利用手机、平板等电子设备进行显示,例如,用户购买衣服时,通常是利用平板、手机等移动终端,将人物模型、各种服装模型等虚拟模型显示于移动终端的显示屏。另外,还可以通过对电子设备的显示屏上显示的虚拟模型进行操作,达到相关的目的,例如,通过对于显示屏上显示的服装模型进行操作,达到用户虚拟试衣的目的。但是,以这种显示方式显示的虚拟模型,显示效果不佳。
针对上述问题,发明人经过研究,提出了本申请实施例中的虚拟内容显示方法、装置、终端设备及存储介质,对虚拟模型进行增强现实的显示,以提升虚拟模型的显示效果。其中,增强现实(AR,Augmented Reality)是通过计算机***提供的信息增加用户对现实世界感知的技术,其将计算机生成的虚拟对象、场景或***提示信息等内容对象叠加到真实场景中,来增强或修改对现实世界环境或表示现实世界环境的数据的感知。
请参见图1,示出了本申请实施例提供的虚拟内容显示方法的应用场景的示意图,该应用场景包括本申请实施例提供的显示***10。该显示***10包括:终端设备100以及标记物200。
在本申请实施例中,终端设备100可以是头戴显示装置,也可以是手机、平板等移动设备。终端设备100为头戴显示装置时,头戴显示装置可以为一体式头戴显示装置。终端设备100也可以是与外接式头戴显示装置连接的手机等智能终端,即终端设备100可作为头戴显示装置的处理和存储设备,***或者接入外接式头戴显示装置,在头戴显示装置中对虚拟内容进行显示。
在本申请实施例中,上述标记物200的图像存储于终端设备100中。上述标记物200可以包括至少一个具有一个或者多个特征点的子标记物。当上述标记物200处于终端设备100的视野范围内时,终端设备100可将上述处于视野范围内的标记物200作为目标标记物,并可以识别该目标标记物的图像,得到终端设备相对该目标标记物的位置、朝向等空间位置信息,以及目标标记物的身份信息等识别结果。终端设备可基于目标标记物相对终端设备的空间位置信息显示相应的虚拟对象。可以理解地,具体的标记物在本申请实施例中并不作为限定,仅需可以被终端设备识别追踪即可。
基于上述显示***,本申请实施例提供了一种虚拟内容显示方法,应用于上述显示***的终端设备,通过识别目标标记物来得到终端设备相对目标标记物的空间位置信息,并根据空间位置信息对初始虚拟模型进行显示,最后将目标虚拟模型叠加显示于初始虚拟模型,从而实现根据目标标记物的空间位置信息,实现用户观察到虚拟模型叠加于现实世界,以及多个虚拟模型之间的叠加显示,提升了虚拟模型的显示效果,增强用户体验的真实感。下面对具体的虚拟内容显示方法进行介绍。
请参阅图2,本申请实施例提供了一种虚拟内容显示方法,可应用于终端设备,该虚拟内容显示方法可以包括:
步骤S110:识别目标标记物,得到目标标记物的识别结果,识别结果至少包括终端设备相对目标标记物的空间位置信息。
由于在手机、平板等电子设备显示实物的虚拟模型的显示效果不佳,因此可以使虚拟模型达到增强现实的显示效果,以提升显示效果。在实现虚拟模型显示于虚拟空间时,终端设备可以识别目标标记物,来得到目标标记物的识别结果,该识别结果至少包括终端设备相对目标标记物的空间位置信息。其中,该空间位置信息可以包括终端设备相对目标标记物的位置信息以及姿态信息等,姿态信息为终端设备相对目标标记物的朝向及旋转角度。从而,可以得到终端设备相对目标标记物的空间位置。
在一些实施方式中,上述目标标记物可以包括至少一个子标记物,子标记物可以是具有一定形状的图案。在一个实施例中,每个子标记物可具有一个或多个特征点,其中,特征点的形状不做限定,可以是圆点、圆环,也可以是三角形、其他形状。另外,不同目标标记物内的子标记物的分布规则不同,因此,每个目标标记物可具备不同的身份信息。终端设备通过识别目标标记物中包含的子标记物,可以获取与目标标记物对应的身份信息,该身份信息可以是编码等可用于唯一标识目标标记物的信息,但不限于此。
作为一种实施方式,目标标记物的轮廓可以为矩形,当然,目标标记物的形状也可以是其他形状,在此不做限定,矩形的区域以及该区域内的多个子标记物构成一个目标标记物。当然,上述目标标记物也可以为由光点构成的自身可以发光的物体等,光点标记物可以发射不同波段或不同颜色的光,终端设备通过识别光点标记物发出的光的波段或颜色等信息获取与目标标记物对应的身份信息。需要说明的是,具体的目标标记物的形状、样式、尺寸、颜色、特征点数量以及分布在本实施例中并不作为限定,仅需要标记物能被终端设备识别追踪即可。
在本申请实施例中,上述目标标记物可以放置在现实世界中的任意位置,保证目标标记物在终端设备的视野范围内即可,如地面上、桌面上等,以供终端设备对其进行识别并得到上述空间位置信息。
作为一种实施方式,终端设备可以先通过图像采集装置采集包含目标标记物的图像,然后再对该目标标记物进行识别。
在终端设备需要对虚拟模型进行显示时,可以调整终端设备的空间位置,也可以调整目标标记物的空间位置,以使该目标标记物处于终端设备的图像采集装置的视野范围内,从而使终端设备可以对该目标标记物进行图像采集和图像识别。其中,图像采集装置的视野范围可以由视场角的大小决定。
作为另一种实施方式,终端设备还可以通过其他传感器装置对目标标记物进行识别。其中,该传感器装置具有识别标记物的功能,可以为图像传感器、光传感器等。当然,以上传感器装置仅为举例,并不代表对本申请实施例中的传感器装置的限定。
在终端设备需要对虚拟模型进行显示时,可以调整终端设备的空间位置,也可以调整目标标记物的空间位置,以使该目标标记物处于传感器装置的感应范围内,从而使终端设备可以对该目标标记物进行图像识别。其中,传感器装置的感应范围可以由灵敏度大小决定。
步骤S120:基于空间位置信息,显示初始虚拟模型。
由于得到的终端设备相对目标标记物的空间位置信息可以包括目标标记物相对终端设备的位置、朝向以及旋转角度,即终端设备可以获取现实空间中的标记物的空间位置坐标,可以将该空间位置坐标转换为虚拟空间中的空间坐标,得到用于虚拟空间中渲染虚拟模型的渲染坐标,以便对虚拟模型进行显示。
可以理解的是,在将目标标记物在现实空间的空间坐标转换为虚拟空间的渲染坐标之后,终端设备可以获取待显示的初始虚拟模型的数据,然后根据初始虚拟模型的数据构建初始虚拟模型,以及根据上述渲染坐标渲染并显示该初始虚拟模型。其中,上述待显示的初始虚拟模型对应的数据,可以包括初始虚拟模型的模型数据,模型数据为用于渲染初始虚拟模型的数据。例如,模型数据可以包括用于建立初始虚拟模型对应的模型的颜色、模型顶点坐标、模型轮廓数据等。其中,作为一种方式,初始虚拟模型对应的模型数据可以预存在终端设备中(也可以是从服务器中下载或从其他终端获取)。
通过上述方式,利用目标标记物与终端设备的空间位置信息,将初始虚拟模型显示于虚拟空间中,例如,请参见图3,用户通过佩戴的头戴显示装置100可以看到初始虚拟模型300与现实空间叠加进行显示,体现了虚拟模型的增强现实的显示效果,提升了虚拟模型的显示效果。
在本申请实施例中,上述初始虚拟模型可根据具体的应用场景进行合理的设定,例如,在试衣场景中,该初始虚拟模型可以为人体模型,在家装场景中,该初始虚拟模型可以为房屋模型,在儿童教育场景中,该初始虚拟模型可以为芭比娃娃等玩偶模型、也可以为积木模型等玩具模型,当然,以上初始虚拟模型设定仅为举例,并不代表对本申请实施例中的初始虚拟模型设定的限定。
作为一种实施方式,上述空间位置信息与初始虚拟模型的显示状态具有至少一个显示对应关系,该显示对应关系可以为终端设备相对目标标记物的距离的近远,对应于初始虚拟模型显示的大小,也可以为终端设备相对目标标记物的角度,对应于初始虚拟模型显示的角度,还可以为终端设备相对目标标记物的位置,对应于初始虚拟模型显示的位置。当然,以上显示对应关系的设定仅为举例,并不代表对本申请实施例中的显示对应关系的限定。其中,该显示对应关系可以预先存储于终端设备中,也可以是从服务器或其他终端获取。
例如,在试衣场景中,当显示对应关系为终端设备相对目标标记物的距离的近远,对应于初始虚拟模型显示的大小时,请同时参见图3及图4,初始虚拟模型300为人体模型,在终端设备距离目标标记物200比较远时,显示的初始虚拟模型300比较小即显示的人体模型的尺寸比较小,反之,在终端设备距离目标标记物200比较近时,显示的初始虚拟模型300比较大即显示的人体模型比较大。当显示对应关系为终端设备相对目标标记物的角度,对应于初始虚拟模型显示的角度时,在终端设备处于目标标记物设定的正前方区域中时,人体模型的显示角度为人身正对着终端设备,在终端设备处于目标标记物设定的正上方区域中时,人体模型的显示角度为头顶正对着终端设备。
进一步的,在初始虚拟模型显示的过程中,可以进行初始虚拟模型的显示拍照,还可以进行初始虚拟模型的显示录制,以便于本次观察以后的观察、图片分享以及视频分享。
步骤S130:获取初始虚拟模型对应的至少一个目标虚拟模型。
终端设备在进行初始虚拟模型的显示之后,需要实现多个虚拟模型的叠加显示时,可以获取与初始虚拟模型对应的至少一个目标虚拟模型。具体地,终端设备可以获取与初始虚拟模型对应的至少一个目标虚拟模型的模型数据。其中,该目标虚拟模型的模型数据,可以是从终端设备的数据库中获取的,也可以是从服务器中下载的,还可以是从与终端设备通信连接的其他终端获取的。
作为一种实施方式,上述目标虚拟模型可根据具体的应用场景进行合理的设定。例如,在试衣场景中,该目标虚拟模型可以为衣服模型、鞋子模型、帽子模型、围巾模型、包的模型以及其他的穿搭饰品模型;在家装场景中,该目标虚拟模型可以为冰箱、电视等家电模型,也可以为沙发、床、衣柜等家具模型,还可以为壁纸、地板、窗帘等室内装饰模型;在儿童教育场景中,该目标虚拟模型可以为玩偶的服装模型、头发模型、颜色模型,也可以为积木模型、火车模型、汽车模型等玩具模型,当然,以上目标虚拟模型设定仅为举例,并不代表对本申请实施例中的目标虚拟模型设定的限定。
作为另一种实施方式,上述目标虚拟模型可以根据具体的初始虚拟模型进行合理设定。例如,当初始虚拟模型为女体模型时,目标虚拟模型可以为裙子模型、内衣模型等女士服装模型以及其他女士穿搭饰品模型;当初始虚拟模型为男体模型时,目标虚拟模型可以为西装模型、皮鞋模型等男士服装模型以及其他男士穿搭饰品模型;当初始虚拟模型为卫生间的房屋模型时,目标虚拟模型可以为马桶模型、浴缸模型、防滑垫模型等卫生间必需品模型;当初始虚拟模型为芭比娃娃的人偶模型时,目标虚拟模型可以为芭比娃娃服装模型、头发模型等。
步骤S140:将目标虚拟模型叠加显示于初始虚拟模型。
在获取到上述目标虚拟模型后,需要实现多个虚拟模型的叠加显示时,可以将目标虚拟模型叠加显示于初始虚拟模型,例如,请参见图5,在现实空间中,目标虚拟模型400叠加显示于初始虚拟模型300,体现了多个虚拟模型的增强现实的显示效果,提升了多个虚拟模型的叠加显示效果。
作为一种实施方式,终端设备在进行上述初始虚拟模型的显示后,可根据目标虚拟模型与初始虚拟模型的叠加对应关系,将目标虚拟模型自动地合理叠加于初始虚拟模型,并进行显示。其中,该叠加对应关系可以为位置关系、尺寸关系、朝向关系中的至少一个,该叠加对应关系可以预先存储于终端设备中,也可以是从服务器或其他终端获取。当然,以上叠加对应关系的设定仅为举例,并不代表对本申请实施例中的叠加对应关系设定的限定。
例如,当初始虚拟模型为女体模型,目标虚拟模型为包的模型时,终端设备可以根据女体模型与包的模型之间的位置关系,自动将包的模型叠加显示于女体模型的手上或者肩膀上,以实现提包、挎包的显示效果。当初始虚拟模型为客厅的房屋模型,目标虚拟模型为茶几模型时,终端设备可根据客厅的房屋模型与茶几模型的位置关系,将茶几模型放置在客厅的房屋模型中,以使茶几模型的底部与客厅的房屋模型的地板平行且贴合,实现虚拟家装的显示效果。
通过上述方式,利用目标虚拟模型与初始虚拟模型的叠加对应关系,减少目标虚拟模型与初始虚拟模型叠加时产生的生硬感,在实现多个虚拟模型的叠加显示的同时,叠加的显示效果能够合理化。
作为另一种实施方式,终端设备在进行上述初始虚拟模型的显示后,可根据用户的操控指令,将目标虚拟模型自动地合理叠加于初始虚拟模型,并进行显示。其中,操控指令包括移动指令、放大指令、缩小指令、旋转指令等,以实现控制目标虚拟模型的移动、旋转的显示效果。当然,以上操控指令仅为举例,并不代表对本申请实施例中的操控指令的限定。
作为一种方式,可以根据用户的手势生成上述操控指令,具体地,终端设备通过摄像头实时扫描用户,识别用户的手势,并生成与用户的手势对应的操控指令,终端设备再根据操控指令改变目标虚拟模型的显示姿态。在一些实施方式中,用户的手势可以为上升、落下、左推、右推等,以控制目标虚拟模型移动、旋转的显示效果。当然,以上用户的手势仅为举例,并不代表对本申请实施例中的用户手势的限定。
作为一种方式,可以通过采集与终端设备连接的控制器上的用户操作,生成上述操控指令。其中,控制器至少包括触控区域、物理按键区域中的一个。具体地,终端设备通过采集用户在与终端设备连接的控制器上进行的操作,并生成相应的操控指令,终端设备再根据该操控指令改变目标虚拟模型的显示姿态。在一些实施方式中,用户在控制器上的操作可以包括但不限于作用于控制器的触控区域的单指滑动、点击、按压、多指配合滑动等,也可以包括但不限于作用于控制器的物理按键区域的按压操作、摇杆操作等,以控制目标虚拟模型移动、旋转、放大、缩小、施展特定的动作效果。
例如,当初始虚拟模型为女体模型,目标虚拟模型为包的模型时,终端设备可以根据用户在控制器的触控区域上进行的单指滑动操作生成操控指令,也可以根据用户在控制器的物理按键区域上进行的摇杆操作生成操控指令,实时将包的模型进行移动,直至根据该操控指令实现包的模型叠加显示于女体模型的手上,以实现提包的显示效果。当初始虚拟模型为卧室的房屋模型,目标虚拟模型为壁纸模型时,终端设备可以根据用户在控制器的触控区域上进行的单指滑动操作生成操控指令,也可以根据用户在控制器的物理按键区域上进行的摇杆操作生成操控指令,实时将壁纸模型进行移动,直至根据该操控指令实现壁纸模型叠加显示于卧室的房屋模型的墙上,以实现虚拟家装的显示效果。
通过上述方式,根据用户的操控指令来控制目标虚拟模型与初始虚拟模型叠加显示,能在实现多个虚拟模型的叠加显示的同时,增强用户体验的真实感。
本申请实施例提供的虚拟内容显示方法,通过识别目标标记物,得到终端设备相对目标标记物的空间位置信息,并根据空间位置信息对初始虚拟模型进行显示,最后将目标虚拟模型叠加显示于初始虚拟模型,从而不通过电子设备的显示屏上来显示虚拟模型,而是根据目标标记物的空间位置信息,实现用户可以观察到虚拟模型叠加于现实世界,以及多个虚拟模型之间的叠加显示,提升了虚拟模型的显示效果,增强用户体验的真实感。
请参阅图6,本申请另一实施例提供了一种虚拟内容显示方法,可应用于终端设备,该方法可以包括:
步骤S210:识别目标标记物,得到目标标记物的识别结果,识别结果至少包括终端设备相对目标标记物的空间位置信息。
步骤S220:基于空间位置信息,显示初始虚拟模型。
在一些实施方式中,步骤S210以及步骤S220的内容可以参阅上述实施例的内容,在此不再赘述。
在一些实施方式中,终端设备识别上述目标标记物后,还可以得到目标标记物的身份信息,也就是说,终端设备在识别目标标记物或者识别包含有目标标记物的图像之后,可以得到终端设备相对目标标记物的空间位置信息,以及目标标记物的身份信息。
在一些实施方式中,上述目标标记物可以具备不同的身份信息,而且每个身份信息都唯一对应一个应用场景。例如,虚拟试衣场景、虚拟家装场景、儿童教育场景各自有一个独立的身份信息与之对应。其中,目标标记物的身份信息与应用场景的对应关系可以预先存储于终端设备中,也可以从服务器或者其他终端中获取。
在终端设备得到目标标记物的身份信息后,进一步的,请参阅图7,上述基于空间位置信息,显示初始虚拟模型,包括:
步骤S221:获取身份信息对应的目标场景的初始虚拟模型。
由于每个身份信息都有唯一对应的应用场景,因此可以根据目标标记物的身份信息以及上述对应关系,获取到目标标记物的身份信息对应的目标场景。
在本申请实施例中,上述目标场景为虚拟试衣、虚拟家装、儿童教育、游戏场景等应用场景中的一种,以上应用场景仅为举例,并不代表对本申请实施例中的应用场景的限定。
可以理解的是,终端设备识别目标标记物,可以得到不同的身份信息,还可以根据不同的身份信息得到不同的应用场景,当需要显示初始虚拟模型时,首先需要确定当前的应用场景即目标场景。作为一种方式,终端设备可根据用户的选择确定身份信息即确定目标场景。例如,当得到的不同的身份信息对应的不同的应用场景分别是虚拟试衣场景、虚拟家装场景时,如果用户选择了虚拟试衣场景,则终端设备可根据用户的选择确定目标场景为虚拟试衣场景,进而进行后续对应的初始虚拟模型的显示。
在一些实施方式中,终端设备中不同的APP软件识别同一个目标标记物时,可以得到对应的身份信息,该身份信息对应的应用场景与每个APP软件一一对应,例如,服装购买类的APP识别目标标记物,得到的身份信息对应于虚拟试衣场景,家居购买类的APP识别目标标记物,得到的身份信息对应于虚拟家装场景。
在一些实施方式中,每个应用场景可以对应一个初始虚拟模型,例如,虚拟试衣场景唯一对应的初始虚拟模型可以为标准人物模型,虚拟家装场景唯一对应的初始虚拟模型可以为标准房屋模型,儿童教育场景唯一对应的初始虚拟模型可以为芭比人偶模型。其中,应用场景与初始虚拟模型的对应关系可以预先存储于终端设备中,也可以从服务器或者其他终端中获取。因此,在获取到目标标记物的身份信息对应的目标场景后,可以根据该目标场景,获取到目标场景对应的初始虚拟模型。
这样,通过身份信息与应用场景的一一对应关系以及应用场景与初始虚拟模型的对应关系,来实现基于具体的应用环境显示相应的虚拟模型,提升了虚拟模型显示的智能化水平,提高了用户的体验。
进一步的,上述获取身份信息对应的目标场景的初始虚拟模型,可以包括:
获取身份信息对应的目标场景的多个第一虚拟模型;根据第一选择指令,从多个第一虚拟模型中获取初始虚拟模型。
在一些实施方式中,每个应用场景可以对应多个第一虚拟模型,例如,在虚拟试衣场景中,请参见图8,可以看到对应的多个第一虚拟模型为女士模型501、男士模型502、儿童模型503,当然,对应的多个第一虚拟模型还可以为老人模型、婴儿模型、少年模型等(图上未示出),体现了多个虚拟模型的增强现实的显示效果,提升了虚拟模型的显示效果。在虚拟家装场景中,对应的第一虚拟模型可以为一室一厅模型、两室一厅模型、卫生间模型等。其中,应用场景与第一虚拟模型的对应关系可以预先存储于终端设备中,也可以从服务器或者其他终端中获取。以上第一虚拟模型仅为举例,并不代表对本申请实施例中的第一虚拟模型的限定。因此,终端设备在获取到目标标记物的身份信息对应的目标场景后,可以获取到目标场景对应的多个第一虚拟模型。
可以理解的是,终端设备可根据用户的第一选择指令,从上述多个第一虚拟模型中获取初始虚拟模型。这样,根据用户的第一选择指令,确定当前选中的第一虚拟模型为初始虚拟模型,实现可以根据用户的个人意愿来进行初始虚拟模型的选择,提升了虚拟模型显示的智能化水平。
作为一种方式,可以根据用户的手势生成第一选择指令,具体地,终端设备通过摄像头实时扫描用户,识别用户的手势,并生成与用户的手势对应的第一选择指令,终端设备再根据第一选择指令确定用户选中的第一虚拟模型,并将选中的第一虚拟模型作为初始虚拟模型。在一些实施方式中,用户的手势可以为上升、落下、左推、右推等,以控制第一虚拟模型的切换、选中等显示效果。当然,以上用户的手势仅为举例,并不代表对本申请实施例中的用户手势的限定。
作为一种方式,可以通过采集与终端设备连接的控制器上的用户操作,生成第一选择指令。其中,控制器至少包括触控区域、物理按键区域中的一个。具体地,终端设备通过采集用户在与终端设备连接的控制器上进行的操作,并生成相应的第一选择指令,终端设备再根据该第一选择指令确定用户选中的第一虚拟模型,并将选中的第一虚拟模型作为初始虚拟模型。在一些实施方式中,用户在控制器上的操作可以包括但不限于作用于控制器的触控区域的单指滑动、点击、按压、多指配合滑动等,也可以包括但不限于作用于控制器的物理按键区域的按压操作、摇杆操作等,以控制第一虚拟模型的切换、选中等显示效果。
进一步的,在上述获取身份信息对应的目标场景的初始虚拟模型之前,还可以通过采集当前场景的图像,来构建与目标场景对应的初始虚拟模型。因此,该虚拟内容显示方法还可以包括:
获取目标场景的场景图像;根据场景图像,构建目标场景对应的初始虚拟模型。
可以理解的是,在处于目标场景中时,可能存在现有的初始虚拟模型与用户需求不相符合的情况,例如,在虚拟试衣场景中,人体模型与用户的身材不符合,在虚拟家装场景中,房屋模型与用户的房屋结构不符合,在儿童教育场景中,没有与用户需求相符合的玩具模型等。因此终端设备可以通过获取目标场景的场景图像,来构建目标场景对应的初始虚拟模型。
在一些实施方式中,终端设备获取目标场景的场景图像,可以是通过用户选择目标场景后再采集场景图像。例如,用户选择的目标场景为虚拟试衣场景时,终端设备可以通过摄像头实时扫描用户的身体,得到用户的人体图像,也可以通过扫描用户的照片,得到用户的人体图像;用户选择的目标场景为虚拟家装场景时,终端设备可以通过摄像头实时扫描当前的房间,得到用户的房间图像,也可以通过摄像头实时扫描用户的房间照片,得到用户的房间图像。
在一些实施方式中,终端设备获取目标场景的场景图像,可以是通过对采集的场景图像进行识别,来确定该场景图像对应的目标场景,例如,终端设备可以通过识别采集的人体图像,来确定目标场景为虚拟试衣场景;终端设备可以通过识别采集的房间图像,来确定目标场景为虚拟试衣场景。
在本实施例中,根据场景图像,构建目标场景对应的初始虚拟模型,可以是终端设备根据场景图像,得到与目标场景符合的模型数据,然后根据模型数据,构建目标场景对应的初始虚拟模型。其中,该模型数据用于渲染初始虚拟模型,可以包括用于建立初始虚拟模型对应的模型的颜色、3D模型中的各顶点坐标等。
通过上述方式,构建初始虚拟模型,能够在具体的应用场景中,实时显示与用户需求相符合的虚拟模型,提升了虚拟模型显示的智能化水平,提高了用户的体验。
步骤S222:根据空间位置信息,获取初始虚拟模型的显示位置。
在获取到初始虚拟模型后,需要对初始虚拟模型进行显示时,可以根据空间位置信息,获取初始虚拟模型的显示位置。
作为一种实施方式,初始虚拟模型的显示位置可以为目标标记物的位置,因此根据终端设备相对目标标记物的空间位置信息,确定出初始虚拟模型相对终端设备的空间位置,然后根据初始虚拟模型相对终端设备的空间位置,进行坐标转换,得到初始虚拟模型在终端设备的显示空间中的显示位置。
作为另一种实施方式,初始虚拟模型的显示位置与目标标记物的位置之间可以是固定的位置关系。因此,终端设备可以根据需要显示的初始虚拟模型与目标标记物的位置关系,以及终端设备相对目标标记物的空间位置信息,以目标标记物作为参照,从而得到需要显示的初始虚拟模型相对终端设备的空间位置。将初始虚拟模型相对终端设备的空间位置进行坐标转换,则可以得到初始虚拟模型在终端设备的显示空间中的显示位置,以用于后续对初始虚拟模型进行显示。
步骤S223:将初始虚拟模型显示于显示位置。
在得到初始虚拟模型的显示位置或者显示坐标之后,可以将初始虚拟模型显示于该显示位置或者显示于该显示坐标。这样,根据终端设备与目标标记物于现实世界的空间位置信息,显示初始虚拟模型,使用户可以观察到初始虚拟模型叠加于真实世界,提升了虚拟模型的显示效果。
进一步的,终端设备获取初始虚拟模型的显示位置后,可根据该显示位置将初始虚拟模型与图像采集设备采集的当前场景图像叠加进行显示,实现增强现实(AR)的显示效果。例如,在虚拟试衣场景中,初始虚拟模型为人体模型时,如果图像采集设备采集的当前场景图像为用户的卧室,则将人体模型显示在用户的卧室场景中,以便用户在卧室场景中看到虚拟的人体模型,从而将初始虚拟模型显示于虚拟空间中,实现了初始虚拟模型的增强现实(AR)的显示效果,提高了虚拟模型的显示的真实感。当然,以上场景仅为举例,具体的场景以及具体的初始虚拟模型在本申请实施例中并不作为限定。
在一些实施方式中,在上述基于空间位置信息,显示初始虚拟模型之后,还可以根据空间位置信息的变化,对初始虚拟模型的显示位置进行调整。因此,该虚拟内容显示方法还可以包括:
在检测到终端设备相对目标标记物的空间位置信息发生变化时,根据变化后的空间位置信息,对显示的初始虚拟模型进行更新。
可以理解的是,终端设备在根据终端设备相对目标标记物的空间位置信息,进行初始虚拟模型的显示之后,可以实时获取终端设备相对目标标记物的空间位置信息,以在终端设备相对目标标记物的空间位置发生变化时,对显示的初始虚拟模型的显示位置进行更新。也就是说,在检测到终端设备相对目标标记物的空间位置发生变化时,则根据变化后的终端设备相对目标标记物的空间位置,通过上述确定初始虚拟模型的显示位置的方法,重新确定初始虚拟模型的显示位置,并将初始虚拟模型显示于重新确定的显示位置,实现对初始虚拟模型的显示位置的更新。从而,可以使用户改变终端设备相对目标标记物的空间位置,以对初始虚拟模型的显示位置进行移动调整等,具体可以改变目标标记物的位置,或者改变其终端设备的位置,达到改变终端设备相对目标标记物的空间位置的目的。
例如,可以通过移动目标标记物的位置,使初始虚拟模型的显示位置改变,请同时参见图3及图4,目标标记物200于图3中的位置移动至图4中的位置时,初始虚拟模型300也随目标标记物200的位置的移动而移动。
步骤S230:获取初始虚拟模型对应的至少一个目标虚拟模型。
在本申请实施例中,请参阅图9,上述获取初始虚拟模型对应的至少一个目标虚拟模型,包括:
步骤S231:获取目标场景对应的多个第二虚拟模型。
在一些实施例中,一个应用场景可以对应多个第二虚拟模型。因此,在终端设备需要获取至少一个目标虚拟模型时,可以先获取目标场景对应的多个第二虚拟模型,以从上述多个第二虚拟模型中获取至少一个目标虚拟模型。例如,在试衣场景中,请参见图10,初始虚拟模型为女体模型501,可以看到对应的多个第二虚拟模型为帽子模型601、围巾模型602、短袖模型603、长裤模型604,当然,对应的多个第二虚拟模型还可以为大衣模型、西装模型、鞋子模型、包的模型以及其他的穿搭饰品模型(图中未示出),体现了多个虚拟模型的增强现实的显示效果,提升了虚拟模型的显示效果。在家装场景中,该第二虚拟模型可以为冰箱、电视、空调、灯等家电模型,也可以为沙发、床、衣柜等家具模型,还可以为壁纸、地板、窗帘等室内装饰模型;在儿童教育场景中,该第二虚拟模型可以为玩偶的帽子模型、玩偶的裙子模型、头发模型、颜色模型,也可以为积木模型、火车模型、汽车模型等玩具模型。
步骤S232:根据第二选择指令,从多个第二虚拟模型中获取至少一个目标虚拟模型。
终端设备在获取到目标场景对应的多个第二虚拟模型后,可根据用户的第二选择指令,从多个第二虚拟模型中来确定用户选中至少一个第二虚拟模型,并将选中的至少一个第二虚拟模型作为目标虚拟模型。在一些实施方式中,可以根据用户的手势生成第二选择指令,也可以通过采集与终端设备连接的控制器上的用户操作,生成第二选择指令,其中,生成第二选择指令的具体步骤可以参阅上述第一选择指令的生成步骤,在此不再赘述。
通过上述方式,根据用户的第二选择指令,确定当前选中的多个第二虚拟模型为目标虚拟模型,实现可以根据用户的个人意愿来进行目标虚拟模型的选择,提升了虚拟模型显示的智能化水平,提高了用户的体验。
步骤S240:将目标虚拟模型叠加显示于初始虚拟模型。
在获取到上述目标虚拟模型后,需要实现多个虚拟模型的叠加显示时,可以将目标虚拟模型叠加显示于初始虚拟模型。
在本实施例中,请参阅图11,上述将目标虚拟模型叠加显示于初始虚拟模型,包括:
步骤S241:判断目标虚拟模型的第一参数是否与初始虚拟模型的第二参数相匹配。
在需要进行目标虚拟模型与初始虚拟模型的叠加时,可以判断目标虚拟模型的第一参数是否与初始虚拟模型的第二参数相匹配。其中,第一参数与第二参数为同一类型的参数,该类型可以包括尺寸、方向以及位置中的至少一种。其中,尺寸为模型的大小、长短、宽高等,方向为模型的正面朝向、反面朝向、水平方向、垂直方向、旋转角度等,位置为模型的显示位置、显示角度等。例如,在虚拟试衣场景中,判断人体模型的方向是否与衣服模型的方向相匹配,判断人体模型的显示位置是否与衣服模型的显示位置相匹配;在虚拟家装场景中,判断房屋模型的水平方向与沙发模型的水平方向是否相匹配,判断房屋模型的大小与沙发模型的大小是否相匹配。
步骤S242:如果不匹配,则对目标虚拟模型的第一参数进行调整,以使目标虚拟模型的第一参数与初始虚拟模型的第二参数相匹配。
终端设备在判断目标虚拟模型的第一参数是否与初始虚拟模型的第二参数相匹配时,如果得到匹配的判断结果,则可以将目标虚拟模型叠加显示于初始虚拟模型。如果得到不匹配的判断结果,则需要对目标虚拟模型的第一参数进行调整,以使目标虚拟模型的第一参数与初始虚拟模型的第二参数相匹配。
例如,当人体模型的方向与衣服模型的方向匹配时,终端设备可以得到人体模型与衣服模型方向匹配的判断结果,则可以将衣服模型叠加显示于人体模型。而当人体模型的方向与衣服模型的方向相反时,终端设备就得到人体模型与衣服模型不匹配的判断结果,然后终端设备可以调整衣服模型的显示方向,以使人体模型的方向与衣服模型的方向一致。
步骤S243:根据调整后的第一参数将目标虚拟模型叠加显示于初始虚拟模型。
由于终端设备对目标虚拟模型的第一参数进行调整后,能够得到目标虚拟模型的第一参数与初始虚拟模型的第二参数相匹配的判断结果。因此,可以根据调整后的第一参数将目标虚拟模型叠加显示于初始虚拟模型。
进一步的,在需要进行多个目标虚拟模型与初始虚拟模型的叠加时,也可以判断多个目标虚拟模型之间的第三参数相匹配。其中,第三参数可以包括尺寸、方向以及位置中的至少一种。其中,尺寸为模型的大小、长短、宽高等,方向为模型的正面朝向、反面朝向、水平方向、垂直方向、旋转角度等,位置为模型的显示位置、显示角度、显示顺序等。显示顺序为多个目标虚拟模型在同一个初始虚拟模型上显示时,多个目标虚拟模型之间的覆盖重叠关系,例如,在虚拟试衣场景中,衬衣模型在内衣模型上覆盖显示。
例如,在虚拟试衣场景中,判断衬衣模型在人体模型上的显示顺序与大衣模型在人体模型上的显示顺序是否相匹配;在虚拟家装场景中,判断沙发模型在客厅模型中的正面朝向与茶几模型在客厅模型中的正面朝向是否相匹配,判断沙发模型在客厅模型中的正面朝向与电视模型的在客厅模型中正面朝向是否相匹配。
在一些实施方式中,在上述将目标虚拟模型叠加显示于初始虚拟模型之后,还可以对初始虚拟模型以及目标虚拟模型的显示状态进行调整。因此,虚拟内容显示方法还包括:
步骤S250:根据对初始虚拟模型的显示状态的控制指令,调整叠加显示的初始虚拟模型及目标虚拟模型的显示状态。
可以理解的是,终端设备将目标虚拟模型叠加显示于初始虚拟模型后,可以获取用户对初始虚拟模型的显示状态的控制命令,并根据该控制命令,调整叠加显示的初始虚拟模型及目标虚拟模型的显示状态。在一些实施方式中,可以根据用户的手势生成控制命令,也可以通过采集与终端设备连接的控制器上的用户操作,生成控制命令,其中,生成控制命令的具体步骤可以参阅上述操控指令的生成步骤,在此不再赘述。
在本申请实施例中,上述显示状态至少包括显示姿态以及显示动作中的一种,其中,显示姿态可以包括朝向、旋转角度等,显示动作可以包括旋转、移动、静止等。
例如,在虚拟试衣场景中,当服装模型已经叠加显示于人体模型时,可以通过检测到单指向右滑动的触控动作,生成对人体模型向右旋转的控制命令,从而调整叠加显示的初始虚拟模型及目标虚拟模型的显示状态为向右旋转。
进一步的,在上述将目标虚拟模型叠加显示于初始虚拟模型之后,还可以对目标虚拟模型的相关信息进行显示。其中,相关信息包括价格、大小、购买链接、颜色、材质、厂商等。例如,在虚拟试衣场景中,帽子模型叠加显示于人体模型时,帽子的价格、购买链接、大小、材质等相关信息可以以悬浮框的方式显示在帽子模型的上方。当然,以上相关信息仅为举例,具体的相关信息在本申请实施例中并不作为限定。
作为一种方式,终端设备将目标虚拟模型叠加显示于初始虚拟模型后,通过获取用户的选中指令,对选中目标虚拟模型进行相关信息的显示。其中,该选中指令的获取方式可以参考上述控制指令的获取方式。
例如,在虚拟试衣场景中,帽子模型、卫衣模型以及裤子模型都叠加显示于人体模型时,当用户选中了帽子模型以及卫衣模型时,可以在卫衣模型周围显示卫衣的相关信息,帽子模型周围显示帽子的相关信息,但是不会对裤子模型的相关信息进行显示。
本申请实施例提供的虚拟内容显示方法,通过终端设备相对目标标记物的空间位置信息、身份信息以及用户的各种操作指令,进行初始虚拟模型的显示,以及进行目标虚拟模型与初始虚拟模型的叠加显示,并可以对其显示状态进行调整,还可以对目标虚拟模型的相关信息进行显示。从而不通过电子设备的显示屏上来显示虚拟模型,而是根据目标标记物的空间位置信息,实现用户观察到虚拟模型叠加于现实世界,以及多个虚拟模型之间的叠加显示,提升了虚拟模型的显示效果,增强用户体验的真实感。
在一些实施方式中,终端设备通过图像采集装置采集包含目标标记物的图像,并对该目标标记物进行识别,可能会出现目标标记物丢失或无法清楚识别的情况。例如,用户在使用终端设备的时候旋转角度过大或这旋转速度太快等,都会导致终端设备无法识别目标标记物,如此在很大程度上会影响虚拟模型的正常显示。
为了能够解决上述问题,终端设备可获取通过图像采集装置采集的包含目标标记物的图像后,并可根据该图像获取终端设备与目标标记物之间的相对空间位置关系。当相对空间位置关系满足预设条件时,可生成提示信息,其中,该预设条件可以是目标标记物的位置及姿态中的至少一种条件。
在一个实施例中,相对空间位置关系可以包括终端设备与目标标记物之间的目标距离,目标距离指的是终端设备与目标标记物之间的距离,具体如图12所示,终端设备可以获取通过图像采集装置采集的包含目标标记物的图像,并根据该图像获取与目标标记物之间的目标距离。作为一种实施方式,预先将目标标记物设置在不同的位置处,并将终端设备摆放在固定位置,可测量设置于各个位置的标记物与终端设备之间的距离。可以获取采集的设置在不同位置的标记物的目标图像内,各个标记物的轮廓大小,并根据各个位置的标记物与终端设备的距离以及对应位置上标记物在目标图像中的轮廓大小,获取距离与标记物的轮廓大小之间的对应关系。终端设备在获取到采集的图像之后,分析该图像内目标标记物的轮廓大小,然后在距离与轮廓大小的对应关系中,查找目标标记物的轮廓大小对应的距离,从而就能够确定终端设备与目标标记物之间的目标距离。需要说明的是,目标距离也可以通过追踪技术进行实时获取,例如,可以利用DepthMap(深度图像)镜头生成标记物到镜头距离的实时分布图,如此就可以实时获取到终端设备与标记物的距离,另外,也可以利用磁力追踪、声学追踪、惯性追踪、光学追踪或者多传感器融合实时获取标记物与终端设备的距离,具体使用哪种方式不明确限定。
终端设备可判断目标距离是否超出第一距离阈值;若超出第一距离阈值,则生成提示信息。第一距离阈值指的是终端设备与目标标记物之间的最大距离,当目标距离超出第一距离阈值,终端设备则生成提示信息。
在一个实施例中,相对空间位置关系还可以包括目标标记物的位置与图像采集装置的视野范围的边界位置之间的距离,目标标记物的位置与图像采集装置的视野范围的边界位置之间的距离可以是目标标记物的位置与图像采集装置的边界的一个距离,具体如图13所示。图像采集装置的视野范围指的是图像采集装置可以采集到图像的范围,视野范围的边界指的是视野范围对应的区域范围的边缘位置,边缘位置可以为一个边界值也可以为一个边界区域值,作为一种实施方式,在获取到图像之后,将图像的水平边界作为水平视野,而将垂直边界作为垂直视野,如图14中,L1和L2为水平视野的水平边界,L3和L4为垂直视野的垂直边界,图中目标标记物的摆放位置可以通过分析图像内目标标记物图像的像素坐标而获取,作为一种实施方式,以L1和L4的交点作为该图像的原点,则目标标记物的位置与图像采集装置的视野范围的边界位置之间的距离可以包括目标标记物与L1之间的距离d1、目标标记物与L4之间的距离d2、目标标记物与L2之间的距离d3或者是目标标记物与L3之间的距离d4,本实施例中可以将d1、d2、d3和d4中最小的距离值作为目标标记物的位置与图像采集装置的视野范围的边界位置之间的距离,如此就能够得到目标标记物的位置与图像采集装置的视野范围的边界位置之间的距离。
终端设备可判断图像中的目标标记物的位置与图像采集装置的视野范围的边界位置之间的距离是否小于第二距离阈值;若目标标记物的位置与图像采集装置的视野范围的边界位置之间的距离小于第二距离阈值,则生成提示信息。
在一个实施例中,相对空间位置关系还可以包括目标标记物相对终端设备的姿态信息,如图15所示。目标标记物相对终端设备的姿态信息包括目标标记物的旋转方向以及旋转角度等信息。终端设备可判断旋转角度是否超出旋转角度预设值;若旋转角度超出旋转角度预设值,则生成提示信息。其中,旋转角度预设值为预先设定的一个临界角度值,超过临界角度值时,标记物的正面(设置有标记图案的一面)无法被终端设备采集到,则用户无法看到该标记物的正面,而旋转角度预设值可以由用户而设定。
进一步地,还可以结合旋转方向判断旋转角度是否超出旋转角度预设值;若超出旋转角度预设值,则生成提示信息。在一些实施例中,目标标记物的不同的旋转方向所对应的旋转角度预设值不同。终端设备可获取目标标记物的旋转方向,根据该旋转方向获取该旋转方向对应的旋转角度预设值,判断旋转角度是否超出旋转角度预设值;若超出旋转角度预设值,则生成提示信息。
在一个实施例中,终端设备可根据多帧图像中目标标记物的图像位置确定目标标记物的位置及姿态变化,通过标记物的位置与姿态变换获取终端设备和/或标记物的预测运动信息。终端设备可通过预测运动信息判断是否满足预设标准,若满足预设标准,则生成提示信息。本申请实施例中预测运动信息中可以包括运动方向预测、运动速度预测和运动旋转方向预测,而目标标记物的位置及姿态变化可以包括终端设备与标记物之间的目标距离变化、标记物的摆放位置与图像采集装置的视野范围的边界位置之间的距离变化以及标记物自身的姿态信息变化。
考虑到终端设备与目标标记物之间的距离超出第一距离预设值的时候,目标标记物与终端设备之间的距离可能正在不断变小,即标记朝着终端设备的方向运动,则此时可以不生成提示信息,而如果目标标记物与终端设备之间的距离正在不断变大,目标标记物做着远离终端设备的运动,则此时生成提示信息,因此,可以通过目标距离变化获得运动方向,通过运动方向和终端设备与目标标记物之间的距离变化共同判断是否生成提示信息。
考虑到目标标记物的位置与图像采集装置的视野范围的边界位置之间距离小于第二距离阈值的时候,目标标记物可能正在逐渐远离视野范围的边界而向视野范围的中心处移动,则此时目标标记物的位置与图像采集装置的视野范围的边界位置之间距离不断变大,此时可以不必生成提示信息,而如果目标标记物可能正在逐渐靠近视野范围的边界而向视视野范围的边界线处移动,目标标记物的位置与图像采集装置的视野范围的边界位置之间距离小于第二距离阈值时,则此时生成提示信息,因此,可以结合目标标记物的运动方向和目标标记物的位置与图像采集装置的视野范围的边界位置之间的距离的变化共同判断是否生成提示信息。
需要说明的是,终端设备的运动方向可以根据多帧图像中目标标记物的位置变化进行预测,通过运动方向和空间位置关系,判断是否生成提示信息。其中,根据多帧图像中目标标记物的位置变化预测设备终端的运动方向的实施方式可以是,获取当前所获取的图像之前连续几帧的包含有目标标记物的历史图像,获取每个历史图像中的目标标记物的像素坐标,则根据连续几帧图像中的目标标记物的像素坐标能够拟合出目标标记物的轨迹,如图16所示,W3为当前所采集的图像中的目标标记物的位置,而W2和W1为当前图像之前的连续两帧的图像内的目标标记物的位置,根据W1、W2和W3的像素位置就能够确定目标标记物的运动方向,如图16中所示,该目标标记物朝向边界线L1运动。当然,也可以采用当前所采集的图像之后的连续几帧图像中的目标标记物的位置来确定目标标记物的运动方向,其具体实施方式可参考前述,在此不再赘述。
则通过运动方向和目标标记物的位置与图像采集装置的视野范围的边界位置之间距离,判断是否生成提示信息的实施方式可以是:判断图像中目标标记物的位置与图像采集装置的视野范围的边界位置之间的距离是否小于第二距离阈值,若图像中目标标记物的位置与图像采集装置的视野范围的边界位置之间的距离小于第二距离阈值,再获取运动方向,判断运动方向是否为远离视野范围的边界而向视野范围的中心处移动,如果是,则不生成提示信息,如果不是,则生成提示信息。
另外,考虑到目标标记物的旋转角度超出旋转角度预设值的时候,目标标记物的旋转角度可能正在逐渐减小,则此时可以不生成提示信息,而如果旋转角度可能正在增大,则此时生成提示信息,即可以结合运动方向和旋转角度综合判断是否生成提示信息,即可以综合目标标记物的旋转方向和旋转角度判断是否生成提示信息,如果目标标记物向下旋转且目标标记物的旋转角度大于旋转角度预设值,则生成提示信息,而如果目标标记物向上旋转且旋转角度不断减少,则不需要生成提示信息。
在一个实施例中,终端设备生成提示信息,提示信息包括图像提示、语音提示以及震动提示中的至少一种,图像提示是指终端设备通过图像的方式对用户进行提示,图像提示可以是箭头提示、表情提示或者其他形式的图像提示,具体利用哪种提示方式这里不进行明确限制。语音提示是指终端设备通过语音的方式对用户进行提示,为了增强用户的体验感语音提示的声音可以根据用户的喜好进行设置,声音可以是默认声音、儿童声音、明星声音甚至可以是用户自己的声音,具体使用那种语音在这里不做限制。震动提示是指终端设备通过震动的方式对用户进行提示,换句话说可以在终端设备中安装震动器,震动器可以包括微型电动机、凸轮以及橡胶套等,震动器利用凸轮产生离心力,离心力牵引马达快速抖动,继而带动终端设备震动,例如,震动可以随着提示时间长短不断加强。
在一个实施例中,当目标标记物不在终端设备的视野范围内时,终端设备可以通过视觉惯性里程计(Visual-Inertial Odometry,VIO)实时获取终端设备的自由度信息。终端设备可以通过VIO实时获取终端设备的自由度信息,该自由度信息可以包含终端设备的旋转、朝向等信息。终端设备可通过图像采集装置实时采集图像,VIO可以通过图像采集装置采集的图像中包含的关键点(或特征点)计算得到终端设备的相对自由度信息,进而推算出终端设备当前的位置和姿态。当目标标记物处于图像采集装置的视野范围内时,可将终端设备当前所处的位置作为起始点,并通过VIO不断计算终端设备相对起始点的位置变化和姿态信息等信息。当目标标记物不在视野范围内时,可以获取终端设备相对起始点的位置变化和姿态信息等信息,重新确定起始点所在的位置,从而得到目标标记物的实时位置和姿态信息,完成对目标标记物的重定位目的。终端设备可通过VIO获取目标标记物相对终端设备的位置方向,并根据该位置方向生成提示信息,例如,可显示虚拟箭头指向目标标记物的位置方向等。
在本实施例中,通过设定的预设标准判断是否发出提示信息生成提示信息,如果检测到终端设备与标记物之间的相对空间位置关系满足预设标准,可能导致出现无法准确识别标记物的情况,因此,此时发出提示信息生成提示信息,从而提醒用户调整终端设备与标记物之间的相对空间位置关系,以使标记物能够被正常观察到能够被准确识别,进而提高终端设备对虚拟内容显示的准确性。
请参阅图17,其示出了本申请实施例提供的一种虚拟内容显示装置500的结构框图,应用于终端设备,该装置可以包括:识别模块510、显示模块520、获取模块530以及叠加模块540。其中,识别模块510用于识别目标标记物,得到目标标记物的识别结果,识别结果至少包括终端设备相对目标标记物的空间位置信息;显示模块520用于基于空间位置信息,显示初始虚拟模型;获取模块530用于获取初始虚拟模型对应的至少一个目标虚拟模型;叠加模块540用于将目标虚拟模型叠加显示于初始虚拟模型。
在本申请实施例中,请参见图18,显示模块520可以包括:模型获取单元521、显示位置获取单元522以及第一显示单元523。其中,模型获取单元521用于获取身份信息对应的目标场景的初始虚拟模型;显示位置获取单元522用于根据空间位置信息,获取初始虚拟模型的显示位置;第一显示单元523用于将初始虚拟模型显示于显示位置。
在本申请实施例中,模型获取单元521可以具体用于:获取身份信息对应的目标场景的多个第一虚拟模型;根据第一选择指令,从多个第一虚拟模型中获取初始虚拟模型。
在本申请实施例中,获取模块530可以具体用于:获取目标场景对应的多个第二虚拟模型;根据第二选择指令,从多个第二虚拟模型中获取至少一个目标虚拟模型。
在本申请实施例中,该虚拟内容显示装置500还包括:图像获取模块以及模型构建模块。其中,图像获取模块用于获取目标场景的场景图像;模型构建模块用于根据场景图像,构建目标场景对应的初始虚拟模型。
在本申请实施例中,该虚拟内容显示装置500还包括:显示更新模块。其中,显示更新模块用于在检测到终端设备相对目标标记物的空间位置信息发生变化时,根据变化后的空间位置信息,对显示的初始虚拟模型进行更新。
在本申请实施例中,请参见图19,叠加模块540可以包括:判断单元541、参数调整单元542以及第二显示单元543。其中,判断单元541用于判断目标虚拟模型的第一参数是否与初始虚拟模型的第二参数相匹配;参数调整单元542用于如果不匹配,则对目标虚拟模型的第一参数进行调整,以使目标虚拟模型的第一参数与初始虚拟模型的第二参数相匹配;第二显示单元543用于根据调整后的第一参数将目标虚拟模型叠加显示于初始虚拟模型。
在本申请实施例中,该虚拟内容显示装置500还包括:显示调整模块。其中,显示调整模块用于根据对初始虚拟模型的显示状态的控制指令,调整叠加显示的初始虚拟模型及目标虚拟模型的显示状态。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述装置和模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,所显示或讨论的模块相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
另外,在本申请各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
综上所述,本申请实施例提供的一种虚拟内容显示方法及装置,应用于终端设备,通过识别目标标记物,得到终端设备相对目标标记物的空间位置信息,并根据空间位置信息对初始虚拟模型进行显示,最后将目标虚拟模型叠加显示于初始虚拟模型,从而不通过电子设备的显示屏上来显示虚拟模型,而是根据目标标记物的空间位置信息,实现用户可以观察到虚拟模型叠加于现实世界,以及多个虚拟模型之间的叠加显示,提升了虚拟模型的显示效果,增强用户体验的真实感。
请参考图20,其示出了本申请实施例提供的一种终端设备的结构框图。该终端设备100可以是智能手机、平板电脑、电子书等能够运行应用程序的终端设备。本申请中的终端设备100可以包括一个或多个如下部件:处理器110、存储器120、图像采集装置130以及一个或多个应用程序,其中一个或多个应用程序可以被存储在存储器120中并被配置为由一个或多个处理器110执行,一个或多个程序配置用于执行如前述方法实施例所描述的方法。
处理器110可以包括一个或者多个处理核。处理器110利用各种接口和线路连接整个终端设备100内的各个部分,通过运行或执行存储在存储器120内的指令、程序、代码集或指令集,以及调用存储在存储器120内的数据,执行终端设备100的各种功能和处理数据。可选地,处理器110可以采用数字信号处理(Digital Signal Processing,DSP)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、可编程逻辑阵列(Programmable LogicArray,PLA)中的至少一种硬件形式来实现。处理器110可集成中央处理器(CentralProcessingUnit,CPU)、图像处理器(Graphics Processing Unit,GPU)和调制解调器等中的一种或几种的组合。其中,CPU主要处理操作***、用户界面和应用程序等;GPU用于负责显示内容的渲染和绘制;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器110中,单独通过一块通信芯片进行实现。
存储器120可以包括随机存储器(Random Access Memory,RAM),也可以包括只读存储器(Read-Only Memory)。存储器120可用于存储指令、程序、代码、代码集或指令集。存储器120可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作***的指令、用于实现至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现下述各个方法实施例的指令等。存储数据区还可以存储终端设备100在使用中所创建的数据等。
在本申请实施例中,图像采集装置130用于采集标记物的图像以及采集目标场景的场景图像。图像采集装置130可以为红外摄像头,也可以是彩色摄像头,具体的摄像头类型在本申请实施例中并不作为限定。
本申请实施例提供的一种计算机可读存储介质的结构框图。该计算机可读存储介质800中存储有程序代码,程序代码可被处理器调用执行上述方法实施例中所描述的方法。
计算机可读存储介质800可以是诸如闪存、EEPROM(电可擦除可编程只读存储器)、EPROM、硬盘或者ROM之类的电子存储器。可选地,计算机可读存储介质800包括非瞬时性计算机可读介质(non-transitory computer-readable storage medium)。计算机可读存储介质800具有执行上述方法中的任何方法步骤的程序代码810的存储空间。这些程序代码可以从一个或者多个计算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。程序代码810可以例如以适当形式进行压缩。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不驱使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (11)

1.一种虚拟内容显示方法,其特征在于,应用于终端设备,所述方法包括:
识别目标标记物,得到所述目标标记物的识别结果,所述识别结果至少包括所述终端设备相对所述目标标记物的空间位置信息;
基于所述空间位置信息,显示初始虚拟模型;
获取所述初始虚拟模型对应的至少一个目标虚拟模型;
将所述目标虚拟模型叠加显示于所述初始虚拟模型。
2.根据权利要求1所述的方法,其特征在于,所述识别结果还包括所述目标标记物的身份信息,所述基于所述空间位置信息,显示初始虚拟模型,包括:
获取所述身份信息对应的目标场景的初始虚拟模型;
根据所述空间位置信息,获取所述初始虚拟模型的显示位置;
将所述初始虚拟模型显示于所述显示位置。
3.根据权利要求2所述的方法,其特征在于,所述获取所述身份信息对应的目标场景的初始虚拟模型,包括:
获取所述身份信息对应的目标场景的多个第一虚拟模型;
根据第一选择指令,从所述多个第一虚拟模型中获取初始虚拟模型。
4.根据权利要求2所述的方法,其特征在于,所述获取所述初始虚拟模型对应的至少一个目标虚拟模型,包括:
获取所述目标场景对应的多个第二虚拟模型;
根据第二选择指令,从所述多个第二虚拟模型中获取至少一个目标虚拟模型。
5.根据权利要求2所述的方法,其特征在于,在所述获取所述身份信息对应的目标场景的初始虚拟模型之前,所述方法还包括:
获取目标场景的场景图像;
根据所述场景图像,构建所述目标场景对应的初始虚拟模型。
6.根据权利要求1-5任一项所述的方法,其特征在于,在所述基于所述空间位置信息,显示初始虚拟模型之后,包括:
在检测到所述终端设备相对所述目标标记物的空间位置信息发生变化时,根据变化后的空间位置信息,对显示的所述初始虚拟模型进行更新。
7.根据权利要求1-5任一项所述的方法,其特征在于,所述将所述目标虚拟模型叠加显示于所述初始虚拟模型,包括:
判断所述目标虚拟模型的第一参数是否与所述初始虚拟模型的第二参数相匹配;
如果不匹配,则对所述目标虚拟模型的所述第一参数进行调整,以使所述目标虚拟模型的所述第一参数与所述初始虚拟模型的所述第二参数相匹配;
根据调整后的第一参数将所述目标虚拟模型叠加显示于所述初始虚拟模型。
8.根据权利要求1-5任一项所述的方法,其特征在于,在所述将所述目标虚拟模型叠加显示于所述初始虚拟模型之后,所述方法还包括:
根据对所述初始虚拟模型的显示状态的控制指令,调整叠加显示的所述初始虚拟模型及目标虚拟模型的显示状态。
9.一种虚拟内容显示装置,其特征在于,应用于终端设备,包括:
识别模块,用于识别目标标记物,得到所述目标标记物的识别结果,所述识别结果至少包括所述终端设备相对所述目标标记物的空间位置信息;
显示模块,用于基于所述空间位置信息,显示初始虚拟模型;
获取模块,用于获取所述初始虚拟模型对应的至少一个目标虚拟模型;
叠加模块,用于将所述目标虚拟模型叠加显示于所述初始虚拟模型。
10.一种终端设备,其特征在于,包括:
一个或多个处理器;
存储器;
一个或多个应用程序,其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于执行如权利要求1-8任一项所述的方法。
11.一种计算机可读取存储介质,其特征在于,所述计算机可读取存储介质中存储有程序代码,所述程序代码可被处理器调用执行如权利要求1-8任一项所述的方法。
CN201811368606.5A 2018-11-16 2018-11-16 一种虚拟内容显示方法、装置、终端设备及存储介质 Active CN111199583B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811368606.5A CN111199583B (zh) 2018-11-16 2018-11-16 一种虚拟内容显示方法、装置、终端设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811368606.5A CN111199583B (zh) 2018-11-16 2018-11-16 一种虚拟内容显示方法、装置、终端设备及存储介质

Publications (2)

Publication Number Publication Date
CN111199583A true CN111199583A (zh) 2020-05-26
CN111199583B CN111199583B (zh) 2023-05-16

Family

ID=70745790

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811368606.5A Active CN111199583B (zh) 2018-11-16 2018-11-16 一种虚拟内容显示方法、装置、终端设备及存储介质

Country Status (1)

Country Link
CN (1) CN111199583B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111640183A (zh) * 2020-06-04 2020-09-08 上海商汤智能科技有限公司 一种ar数据展示控制方法及装置
CN113112407A (zh) * 2021-06-11 2021-07-13 上海英立视电子有限公司 基于电视的照镜视野生成方法、***、设备及介质
CN113240819A (zh) * 2021-05-24 2021-08-10 中国农业银行股份有限公司 穿戴效果的确定方法、装置和电子设备
CN113741698A (zh) * 2021-09-09 2021-12-03 亮风台(上海)信息科技有限公司 一种确定和呈现目标标记信息的方法与设备
CN114527880A (zh) * 2022-02-25 2022-05-24 歌尔科技有限公司 空间位置识别方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103049728A (zh) * 2012-12-30 2013-04-17 成都理想境界科技有限公司 基于二维码的增强现实方法、***及终端
CN105378594A (zh) * 2013-07-19 2016-03-02 Lg电子株式会社 显示装置及其控制方法
US20170061700A1 (en) * 2015-02-13 2017-03-02 Julian Michael Urbach Intercommunication between a head mounted display and a real world object
CN106780757A (zh) * 2016-12-02 2017-05-31 西北大学 一种增强现实的方法
CN107223271A (zh) * 2016-12-28 2017-09-29 深圳前海达闼云端智能科技有限公司 一种显示数据处理方法及装置
CN107481082A (zh) * 2017-06-26 2017-12-15 珠海格力电器股份有限公司 一种虚拟试衣方法及其装置、电子设备及虚拟试衣***

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103049728A (zh) * 2012-12-30 2013-04-17 成都理想境界科技有限公司 基于二维码的增强现实方法、***及终端
CN105378594A (zh) * 2013-07-19 2016-03-02 Lg电子株式会社 显示装置及其控制方法
US20170061700A1 (en) * 2015-02-13 2017-03-02 Julian Michael Urbach Intercommunication between a head mounted display and a real world object
CN106780757A (zh) * 2016-12-02 2017-05-31 西北大学 一种增强现实的方法
CN107223271A (zh) * 2016-12-28 2017-09-29 深圳前海达闼云端智能科技有限公司 一种显示数据处理方法及装置
CN107481082A (zh) * 2017-06-26 2017-12-15 珠海格力电器股份有限公司 一种虚拟试衣方法及其装置、电子设备及虚拟试衣***

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111640183A (zh) * 2020-06-04 2020-09-08 上海商汤智能科技有限公司 一种ar数据展示控制方法及装置
CN113240819A (zh) * 2021-05-24 2021-08-10 中国农业银行股份有限公司 穿戴效果的确定方法、装置和电子设备
CN113112407A (zh) * 2021-06-11 2021-07-13 上海英立视电子有限公司 基于电视的照镜视野生成方法、***、设备及介质
CN113741698A (zh) * 2021-09-09 2021-12-03 亮风台(上海)信息科技有限公司 一种确定和呈现目标标记信息的方法与设备
CN113741698B (zh) * 2021-09-09 2023-12-15 亮风台(上海)信息科技有限公司 一种确定和呈现目标标记信息的方法与设备
CN114527880A (zh) * 2022-02-25 2022-05-24 歌尔科技有限公司 空间位置识别方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN111199583B (zh) 2023-05-16

Similar Documents

Publication Publication Date Title
CN111199583B (zh) 一种虚拟内容显示方法、装置、终端设备及存储介质
US11861070B2 (en) Hand gestures for animating and controlling virtual and graphical elements
US11531402B1 (en) Bimanual gestures for controlling virtual and graphical elements
US11546505B2 (en) Touchless photo capture in response to detected hand gestures
US10175492B2 (en) Systems and methods for transition between augmented reality and virtual reality
CN110456907A (zh) 虚拟画面的控制方法、装置、终端设备及存储介质
US20170061696A1 (en) Virtual reality display apparatus and display method thereof
JP5845830B2 (ja) 情報処理装置、表示制御方法、およびプログラム
WO2013069360A1 (ja) 情報処理装置、表示制御方法、およびプログラム
US8970569B2 (en) Devices, systems and methods of virtualizing a mirror
JP2019510297A (ja) ユーザの真実の人体モデルへの仮想的な試着
US20150248583A1 (en) Image processing apparatus, image processing system, image processing method, and computer program product
CN106201173B (zh) 一种基于投影的用户交互图标的交互控制方法及***
KR20170026164A (ko) 가상 현실 디스플레이 장치 및 그 장치의 표시 방법
JP2013101526A (ja) 情報処理装置、表示制御方法、およびプログラム
JP2013101529A (ja) 情報処理装置、表示制御方法、およびプログラム
US9779699B2 (en) Image processing device, image processing method, computer readable medium
AU2014304760A1 (en) Devices, systems and methods of virtualizing a mirror
CN102207819A (zh) 信息处理器、信息处理方法和程序
CN109905593A (zh) 一种图像处理方法和装置
US11195341B1 (en) Augmented reality eyewear with 3D costumes
CN111383345B (zh) 虚拟内容的显示方法、装置、终端设备及存储介质
CN112581571B (zh) 虚拟形象模型的控制方法、装置、电子设备及存储介质
US20160071321A1 (en) Image processing device, image processing system and storage medium
US20230362573A1 (en) Audio enhanced augmented reality

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant