CN107526443A - 一种增强现实方法、装置、***、电子设备及存储介质 - Google Patents

一种增强现实方法、装置、***、电子设备及存储介质 Download PDF

Info

Publication number
CN107526443A
CN107526443A CN201710915128.4A CN201710915128A CN107526443A CN 107526443 A CN107526443 A CN 107526443A CN 201710915128 A CN201710915128 A CN 201710915128A CN 107526443 A CN107526443 A CN 107526443A
Authority
CN
China
Prior art keywords
image
target object
augmented reality
touch command
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710915128.4A
Other languages
English (en)
Inventor
郭佳楠
乔立
焦弟琴
余芝兰
张梁予笑
朱铭恩
陈小清
厉源
李源
甘彧
侯雯佩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Kingsoft Internet Security Software Co Ltd
Original Assignee
Beijing Kingsoft Internet Security Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Kingsoft Internet Security Software Co Ltd filed Critical Beijing Kingsoft Internet Security Software Co Ltd
Priority to CN201710915128.4A priority Critical patent/CN107526443A/zh
Publication of CN107526443A publication Critical patent/CN107526443A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开一种增强现实方法、装置、***、电子设备及存储介质,涉及计算机技术领域,能够提高增强现实的用户参与度,提升用户体验。所述增强现实方法包括:通过摄像头获取景物图像并将所述景物图像显示在屏幕上;接收触控指令并根据所述触控指令在所述景物图像上生成虚拟图像。本发明适用于增强现实场景中。

Description

一种增强现实方法、装置、***、电子设备及存储介质
技术领域
本发明涉及计算机技术领域,尤其涉及一种增强现实方法、装置、***、电子设备及存储介质。
背景技术
AR(Augmented Reality,增强现实)技术最早由1990年提出,是一种将真实世界信息和虚拟世界信息“无缝”集成的技术。例如,在基于手机显示器的AR实现方案中,可以将手机摄像头拍摄的真实世界图象输入到手机***,与手机***中产生的虚拟图像合成后输出到手机显示器。用户从手机屏幕上可以看到最终的增强现实场景。
然而,目前运用到增强现实中的虚拟图像大多是由产品服务方提供的现成图像,手机摄像头拍摄现实世界图像后,也是按照既定的程序将虚拟图像投射到屏幕上,整个增强现实的过程中,用户的参与度较低,人机交互较弱,大大降低了用户体验。
发明内容
有鉴于此,本发明实施例提供一种增强现实方法、装置、***、电子设备及存储介质,能够提高用户参与度,提升用户体验。
第一方面,本发明实施例提供一种增强现实方法,包括:通过摄像头获取景物图像并将所述景物图像显示在屏幕上;接收触控指令并根据所述触控指令在所述景物图像上生成虚拟图像。
结合第一方面,在第一方面的第一种实施方式中,所述景物图像中包括目标物体的图像;所述根据所述触控指令在所述景物图像上生成虚拟图像包括:根据所述触控指令在所述景物图像上生成对所述目标物体的虚拟射击图像。
结合第一方面的第一种实施方式,在第一方面的第二种实施方式中,所述根据所述触控指令在所述景物图像上生成对所述目标物体的虚拟射击图像包括:根据所述触控指令在所述景物图像上生成所述虚拟射击的射击轨迹;根据所述射击轨迹以及所述目标物体的运动状态,确定所述虚拟射击是否击中屏幕上的所述目标物体;在所述虚拟射击击中屏幕上的所述目标物体的情况下,在所述目标物体的图像上叠加显示相应的击中效果。
结合第一方面的第二种实施方式,在第一方面的第三种实施方式中,所述根据所述触控指令在所述景物图像上生成所述虚拟射击的射击轨迹包括:根据所述触控指令确定所述虚拟射击的射击方向和弹药飞行速度;根据所述射击方向和所述弹药飞行速度在所述景物图像上生成所述虚拟射击的射击轨迹。
结合第一方面的第三种实施方式,在第一方面的第四种实施方式中,所述触控指令包括手指在屏幕上的滑动方向;所述虚拟射击的射击方向由所述滑动方向确定。
结合第一方面的第三种实施方式,在第一方面的第五种实施方式中,所述触控指令包括以下至少一种:对屏幕的触摸时长、按压力度、滑动距离;所述虚拟射击的弹药飞行速度根据所述对屏幕的触摸时长、所述按压力度、所述滑动距离中的至少一种确定。
结合第一方面的第三种实施方式,在第一方面的第六种实施方式中,所述根据所述触控指令确定所述虚拟射击的射击方向和弹药飞行速度之前,所述方法还包括:选择所述虚拟射击使用的武器装备,其中不同种类的所述武器装备具有不同的飞行速度和射击范围;所述根据所述触控指令确定所述虚拟射击的射击方向和弹药飞行速度包括:根据所述触控指令确定所述虚拟射击的射击方向,并对所述武器装备的飞行速度进行调整。
结合第一方面的第二种至第六种中任一种实施方式,在第一方面的第七种实施方式中,所述根据所述射击轨迹以及所述目标物体的运动状态,确定所述虚拟射击是否击中屏幕上的所述目标物体包括:检测在所述弹药飞出屏幕之前是否与所述目标物体的图像发生碰撞;根据检测结果确定所述虚拟射击是否击中屏幕上的所述目标物体。
结合第一方面的第一种至第六种中任一种实施方式,在第一方面的第八种实施方式中,还包括:显示参与对所述目标物体进行虚拟射击的其他用户的头像;当所述其他用户中的任一用户向所述目标物体的图像进行虚拟射击时,在所述任一用户的头像上标识该用户使用的武器装备并显示该武器装备的射击效果。
结合第一方面的第八种实施方式,在第一方面的第九种实施方式中,还包括:显示所述其它用户对所述目标物体的击中次数和/或得分排名信息。
结合第一方面,在第一方面的第十种实施方式中,所述景物图像中包括目标物体的图像;所述根据所述触控指令在所述景物图像上生成虚拟图像包括:根据所述触控指令在所述景物图像上生成对所述目标物体的虚拟陷井图像。
结合第一方面的第十种实施方式,在第一方面的第十一种实施方式中,所述根据所述触控指令在所述景物图像上生成对所述目标物体的虚拟陷井图像包括:根据所述触控指令在所述景物图像上距离所述目标物体预设距离之外的位置生成所述虚拟陷阱;经过预设时长后,确定所述目标物体是否掉入所述虚拟陷阱;在所述目标物体掉入所述虚拟陷阱的情况下,在所述目标物体的图像上叠加显示相应的掉入效果。
第二方面,本发明的实施例还提供一种增强现实装置,包括:获取单元,用于通过摄像头获取景物图像并将所述景物图像显示在屏幕上;生成单元,用于接收触控指令并根据所述触控指令在所述景物图像上生成虚拟图像。
结合第二方面,在第二方面的第一种实施方式中,所述景物图像中包括目标物体的图像;所述生成单元包括射击生成模块,用于根据所述触控指令在所述景物图像上生成对所述目标物体的虚拟射击图像。
结合第二方面的第一种实施方式,在第二方面的第二种实施方式中,所述射击生成模块包括:第一生成子模块,用于根据所述触控指令在所述景物图像上生成所述虚拟射击的射击轨迹;第一确定子模块,用于根据所述射击轨迹以及所述目标物体的运动状态,确定所述虚拟射击是否击中屏幕上的所述目标物体;第一叠加子模块,用于在所述虚拟射击击中屏幕上的所述目标物体的情况下,在所述目标物体的图像上叠加显示相应的击中效果。
结合第二方面的第二种实施方式,在第二方面的第三种实施方式中,所述第一生成子模块,具体用于:根据所述触控指令确定所述虚拟射击的射击方向和弹药飞行速度;根据所述射击方向和所述弹药飞行速度在所述景物图像上生成所述虚拟射击的射击轨迹。
结合第二方面的第二种或第三种实施方式,在第二方面的第四种实施方式中,所述第一确定子模块具体用于:检测在所述弹药飞出屏幕之前是否与所述目标物体的图像发生碰撞;根据检测结果确定所述虚拟射击是否击中屏幕上的所述目标物体。
结合第二方面的第一种至第三种实施方式,在第二方面的第五种实施方式中,所述增强现实装置还包括显示单元,用于:显示参与对所述目标物体进行虚拟射击的其他用户的头像;当所述其他用户中的任一用户向所述目标物体的图像进行虚拟射击时,在所述任一用户的头像上标识该用户使用的武器装备并显示该武器装备的射击效果。
结合第二方面的第五种实施方式,在第二方面的第六种实施方式中,所述显示单元,还用于显示所述其它用户对所述目标物体的击中次数和/或得分排名信息。
结合第二方面,在第二方面的第七种实施方式中,所述景物图像中包括目标物体的图像;所述生成单元包括陷阱生成模块,用于根据所述触控指令在所述景物图像上生成对所述目标物体的虚拟陷井图像。
结合第二方面的第七种实施方式,在第二方面的第八种实施方式中,所述陷阱生成模块包括:第二生成子模块,用于根据所述触控指令在所述景物图像上距离所述目标物体预设距离之外的位置生成所述虚拟陷阱;第二确定子模块,用于经过预设时长后,确定所述目标物体是否掉入所述虚拟陷阱;第二叠加子模块,用于在所述目标物体掉入所述虚拟陷阱的情况下,在所述目标物体的图像上叠加显示相应的掉入效果。
第三方面,本发明的实施例还提供一种增强现实***,包括服务器以及至少两个本发明的实施例提供的任一种增强现实装置;所述服务器与各所述增强现实装置分别相连,用于:接收各所述增强现实装置发送的虚拟图像数据;对所述虚拟图像数据进行分析处理;将分析处理结果向各所述增强现实装置反馈。
第四方面,本发明的实施例还提供一种电子设备,所述电子设备包括:壳体、处理器、存储器、电路板和电源电路,其中,电路板安置在壳体围成的空间内部,处理器和存储器设置在电路板上;电源电路,用于为上述电子设备的各个电路或器件供电;存储器用于存储可执行程序代码;处理器通过读取存储器中存储的可执行程序代码来运行与可执行程序代码对应的程序,用于执行本发明的实施例提供的任一种增强现实方法。
第五方面,本发明的实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现本发明的实施例提供的任一种增强现实方法。
第六方面,本发明的实施例还提供一种应用程序,所述应用程序被执行以实现本发明的实施例提供的任一种增强现实方法。
本发明的实施例提供的增强现实方法、装置、***、电子设备及存储介质,能够通过摄像头获取景物图像并将景物图像显示在屏幕上,然后接收触控指令并根据触控指令在景物图像上生成虚拟图像,这样不仅令用户及时从屏幕上观察到情况并通过触控指令作出反馈,而且能够根据该反馈生成对应的虚拟图像并展示在屏幕上,从而大大提高了用户在增强现实中的参与度,加强了人机交互在增强现实中的应用,有效提升了用户体验。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本发明的实施例提供的增强现实方法的一种流程图;
图2为本发明的实施例提供的增强现实方法的一种详细流程图;
图3为图2所示的实施例提供的增强现实方法对应的效果示意图;
图4为本发明的实施例提供的增强现实装置的一种结构示意图;
图5为本发明的实施例提供的电子设备的一种结构示意图。
具体实施方式
下面结合附图对本发明实施例进行详细描述。
应当明确,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
第一方面,本发明实施例提供一种增强现实方法,能够让用户积极参与到增强现实环境中来,从而有效提升用户体验。
本发明实施例提供的增强现实方法,以促进增强现实与人机交互的融合为目标,可应用于具有图像提取设备(如摄像头)以及人机交互界面(如触控屏等)的***。特别是随着移动终端和移动互联的高速发展,本发明实施例提供的增强现实方法尤其适用于具备摄像头和触控屏的移动终端。
具体而言,移动终端可以将摄像头提取的真实世界图象输入到移动终端,并显示在移动终端显示屏上,用户可以对显示屏中看到的图像做出反应并向移动终端输入相应的控制指令,移动终端即可以根据用户的意愿在屏幕原有的场景上叠加相应的虚拟图像,从而用户可以更多地参与到增强现实的具体实现中来,大大提升了用户体验。
图1为本发明的实施例提供的增强现实方法的一种流程图,如图1所示,本实施例的增强现实方法可以包括:
S11,通过摄像头获取景物图像并将所述景物图像显示在屏幕上;
其中,摄像头可以仅对景物进行图像获取并实时显示在屏幕上,但不对获取的图像数据进行保存(类似于拍照时的对焦),也可以以视频录像的形式拍摄景物并实时显示在屏幕上,同时对图像数据进行保存(类似于录制视频)。可选的,屏幕既可以是只具有显示功能的普通屏幕,也可以是兼具显示和触控输入功能的触控屏,本发明的实施例对此不做限定。
S12,接收触控指令并根据所述触控指令在所述景物图像上生成虚拟图像。
可选的,接收的触控指令可以是点击、按压、滑动等多种手势中的一种或多种的组合,而触控指令在屏幕上形成的展示效果也各有不同,具体可以根据拍摄到的景物图像来确定,既可以是通过触控指令输入的文字或涂鸦,也可以是通过触控指令触发某个操作按钮等,本发明的实施例对此不做限定。
生成的虚拟图像是指根据接收到的触控指令在终端中新生成的图像,既不同于摄像头拍摄到的现实世界转化来的景物图像,也不同于预先存储在终端或服务器中的现成的图像。在景物图像上生成虚拟图像,即,在摄像头拍摄的景物图像的基础上,在某些位置叠加上根据接收到的触控指令新生成的虚拟图像,从而达到更贴近用户需求的增强现实效果。
本发明的实施例提供的增强现实方法,能够通过摄像头获取景物图像并将景物图像显示在屏幕上,然后接收触控指令并根据触控指令在景物图像上生成虚拟图像,这样不仅令用户可以及时从屏幕上观察到情况并通过触控指令作出反馈,而且能够根据该反馈生成对应的虚拟图像并展示在屏幕上,从而大大提高了用户在增强现实中的参与度,加强了人机交互在增强现实中的应用,有效提升了用户体验。
例如,当摄像头拍摄到有人在冒雨前行时,可以通过触控指令生成一把虚拟的伞为那个人撑起;当拍摄到快速驶过的车辆时,可以通过触控指令在屏幕上发射一条追踪命令,看看能否追上屏幕中的车辆;当拍摄到的景物图像为纷纷落下的树叶时,可以通过触控指令在屏幕上的某个位置生成一个容器,过一段时间查看容器中能收纳多少片落叶;当拍摄到一只蜗牛正在慢慢爬行时,可以在距离蜗牛规定距离范围之外,通过触控指令设置一个或多个虚拟圈套,过一段时间查看蜗牛是否能够恰好钻过这些圈套继续爬行。从这些实例可以看出,通过触控指令生成新的虚拟图像能够让用户更大程度地参与到增强现实场景中来,增加了趣味性,因此大大提升了用户体验。
下面以不同的应用场景为例,对本发明实施例提供的增强现实方法进行详细说明。
在本发明的一种实施方式中,步骤S11中通过摄像头获取的景物图像中可以包括目标物体的图像;该目标物体可以为人身体的一部分或全部,如人脸,人的上半身等。目标物体既可以处于静止状态,也可以处于运动状态。摄像头通过扫描该目标物体可以记录下该目标物体的特征并在后续流程中对目标物体进行识别。
通过将摄像头获取的景物图像显示在屏幕上,可以供用户随时查看,同时,也允许用户对屏幕上显示的场景作出反应并通过触控指令进行反馈,使用户更好地参与到场景活动中来。
具体而言,步骤S12中,根据触控指令在景物图像上生成虚拟图像可包括:根据触控指令在景物图像上生成对目标物体的虚拟射击图像。其中,虚拟射击图像是指在屏幕显示的景物图像中,描绘出从距目标物体一段距离的位置向该目标物体投射虚拟弹药的图像,可选的,该虚拟弹药可以是虚拟纸团、虚拟砖头、虚拟炮弹等。
虚拟射击图像的生成方法可以是多种多样的,既可以将射击轨迹显示出来,也可以不显示射击轨迹而仅显示射击结果,本发明的实施例对此不做限定。可选的,在本发明的一种实施方式中,根据触控指令在景物图像上生成对目标物体的虚拟射击图像可包括:
根据触控指令在景物图像上生成虚拟射击的射击轨迹;
根据射击轨迹以及目标物体的运动状态,确定虚拟射击是否击中屏幕上的目标物体;
在虚拟射击击中屏幕上的目标物体的情况下,在目标物体的图像上叠加显示相应的击中效果。
也就是说,本实施例中,为了逼真体现射击场景,可以在接收到触控指令后,根据该触控指令生成虚拟射击轨迹并显示在景物图像上,虚拟射击轨迹的显示具体可包括如下步骤:
根据触控指令确定虚拟射击的射击方向和弹药飞行速度;
根据射击方向和弹药飞行速度在景物图像上生成虚拟射击的射击轨迹。
在本发明的一个实施例中,触控指令可包括手指在屏幕上的滑动方向,则虚拟射击的射击方向可以由该滑动方向确定。可选的,虚拟射击的弹药射出点的位置既可以是预先设定在屏幕上的,也可以由触控指令临时指定,同样的,弹药飞行速度既可以是默认值,也可以由触控指令指定。
在本发明的另一个实施例中,触控指令可包括以下一种或几种:对屏幕的触摸时长、按压力度、滑动距离;则虚拟射击的弹药飞行速度就可以根据对屏幕的触摸时长、按压力度、滑动距离中的一种或几种来确定。例如,触摸时长越长,则弹药飞行速度越快,触摸时长越短,则弹药飞行速度越慢,按压力度越大,则弹药飞行速度越快,按压力度越小,则弹药飞行速度越慢,手指在屏幕上的滑动距离越远,则弹药飞行速度越快,滑动距离越近,则弹药飞行速度越慢等。当然,在本发明的其它实施例中,也可以给触摸时长、按压力度、滑动距离赋予不同的权重来综合确定弹药飞行速度。
需要说明的是,本发明实施例中虚拟射击的弹药飞行速度是指虚拟弹药在屏幕上的飞行速度,该弹药飞行速度可以是相对于屏幕大小而言的一个相对值,例如每秒飞过屏幕长度的1/10,也可以是绝对值,例如每秒飞行过几个像素点,本发明的实施例对此不做限定。
另外,由于虚拟射击的射击目标是图像化后的目标物体,目标物体在屏幕上的运动状态取决于真实世界中该目标物体相对于摄像头是如何运动的。例如,当现实世界中目标物体靠近摄像头移动时,目标物体也按照同样方向移动,并且目标物体的图像将越来越大,在屏幕中的占比也越来越大,当现实世界中的目标物体远离摄像头移动时,目标物体的图像将越来越小,在屏幕中的占比也将越来越小。在目标物体处于摄像头的拍摄范围内的情况下,摄像头可以识别该目标物体并对该目标物体进行跟踪,当目标物体由于运动跳到摄像头的拍摄范围的情况下,则需要重新对目标物体进行拍摄扫描。
进一步的,在本发明的一个实施例中,可以为虚拟射击提供多种武器装备,可以使用默认的武器装备或者根据触控指令选择其中一种武器装备对目标物体的图像发起射击,从而进一步提高趣味性。
具体的,根据触控指令确定虚拟射击的射击方向和弹药飞行速度之前,本发明实施例提供的增强现实方法还可包括:选择所述虚拟射击使用的武器装备,其中不同种类的所述武器装备具有不同的飞行速度和射击范围;基于此,根据触控指令确定虚拟射击的射击方向和弹药飞行速度具体可以包括:
根据所述触控指令确定所述虚拟射击的射击方向并对所述武器装备的飞行速度进行调整。
例如,当选择纸团作为武器装备射击目标物体的图像时,对应的弹药飞行速度为每秒10个像素点,此时如果触控指令的手势在屏幕上的滑动距离超过预设距离阈值,则可以在该飞行速度的基础上做一定的提高,例如提高到每秒钟12个像素点。其它飞行速度调整情况也类似,此处不再一一说明。在虚拟射击中,弹药的飞行轨迹可以是直线,也可以是抛物线等曲线以更加逼真的模拟实际射击场景。其中,直线或抛物线的方程可以根据触控指令确定。
可以理解的是,虽然控制虚拟射击的触控指令是用户根据屏幕上显示的情况实时作出的反应,但由于目标物体可以自主运动,虚拟射击不一定能够击中该目标物体在屏幕上的图像。因此,需要进一步根据所述射击轨迹以及所述目标物体的运动状态,确定该虚拟射击是否击中了屏幕上的目标物体。
在本发明的一种实施方式中,根据所述射击轨迹以及所述目标物体的运动状态,确定所述虚拟射击是否击中屏幕上的所述目标物体可包括:
检测在弹药飞出屏幕之前是否与目标物体的图像发生碰撞;
根据检测结果确定虚拟射击是否击中屏幕上的目标物体。
可以理解的,弹药的飞行轨迹在触控指令发出时已经确定,即弹药在什么时刻到达屏幕的什么位置是可以知悉的,因此,只需要根据摄像头对目标物体的跟踪,确定同一时刻弹药和目标物体是否出现在同一屏幕位置,即可确定弹药与目标物体的图像是否发生碰撞。
需要说明的是,本发明实施例中的出现在同一屏幕位置是指,弹药的图像与目标物体的图像在运动过程中是否会重叠或者部分重叠,如果是,则确定弹药与目标物体的图像发生碰撞,否则,则确定单元与目标物体的图像未发生碰撞。对于弹药面积比较大的武器装备,同等情况下有更大的概率与目标物体的图像碰撞;当目标物体距摄像头较近时,同等情况下更容易被弹药击中,这也符合真实世界中的射击场景,从而使增强现实场景更为逼真。
进一步的,在一个终端对目标物体进行虚拟射击的同时,还可以存在多个其他用户使用其它终端对同一目标物体进行虚拟射击。对于其中任意一个终端,本发明的实施例提供的增强现实方法还可包括:
显示参与对所述目标物体进行虚拟射击的其他用户的头像;
当所述其他用户中的任一用户向所述目标物体的图像进行虚拟射击时,在所述任一用户的头像上标识该用户使用的武器装备并显示该武器装备的射击效果。
例如,在本发明的一个实施例中,还可以显示共同对一个目标物体进行虚拟射击的另外2个用户Robert和Gloria的头像,假如Gloria使用“***”击中该目标物体的图像,则在Gloria的头像标识其使用了武器装备“***”来射击该目标物体,并在屏幕上显示出“***”从Gloria的头像处向目标物体的图像飞去,以帮助用户查看其他对手或者队友的射击情况。
进一步的,还可以显示所述其它用户对所述目标物体的击中次数和/或得分排名信息,从而通过竞技和配合增强趣味性,进一步提升用户体验。
进一步的,除了上述虚拟射击的应用场景外,本发明的实施例提供的增强现实方法还可以体现在其他场景中。
在本发明的另一种实施例方式中,步骤S11中摄像头获取的景物图像中同样包括目标物体的图像,所不同的是,步骤S12中根据触控指令在景物图像上生成虚拟图像可包括:根据触控指令在景物图像上生成对目标物体的虚拟陷井图像。其中,虚拟陷阱图像是指在屏幕显示的景物图像中,在距离目标物体规定距离之外,设置各种形状的虚拟容器或虚拟障碍,以等待目标物体“通过”或“被困”其中。
具体的,根据触控指令在景物图像上生成对目标物体的虚拟陷阱图像可包括:
根据触控指令在景物图像上距离目标物体预设距离之外的位置生成虚拟陷阱;
经过预设时长后,确定目标物体是否掉入虚拟陷阱;
在目标物体掉入虚拟陷阱的情况下,在目标物体的图像上叠加显示相应的掉入效果。
举例说明,在本发明的一个实施例中,摄像头获取到鱼缸里有2条小金鱼,则可以将鱼缸中的景物显示在屏幕上,然后接收触控指令并根据该触控指令在鱼缸的某个位置涂鸦形成一个虚拟渔网(即虚拟陷阱),虚拟渔网的形状和大小可以根据触控指令进行设定。摄像头可以锁定这两条小金鱼并进行跟踪,当小金鱼游到虚拟渔网所在位置时,即可确定小金鱼掉入渔网中,捕获了一条鱼。
下面通过具体实施例对本发明提供的增强现实方法进行进一步说明。
本发明的实施例提供一种增强现实方法,通过人脸追踪,用户可以通过手机摄像头实时的跟踪目标人脸,并在手机屏幕上向目标人脸投射提供的武器装备,看是否会击中目标人脸。可允许多人同时参与扫描同一目标人脸并同时向目标人脸投射武器装备,通过APP统计扔到的次数来进行排名。
图2为本发明实施例提供的增强现实方法的一种流程图,图3为与图2对应的增强现实效果图。结合图2和图3,本实施例提供的增强现实方法具体可包括如下步骤:
S201,打开APP,用手机摄像头对准目标人脸来进行扫描识别。
S202,识别成功后,屏幕底部出现一排武器,手机***可以从服务器或本地抓取可选择的武器装备,用户可通过左右滑动的触控指令来选择想使用的物品。
S203,接收用户滑动武器装备的触控指令,用武器装备向目标人脸发送弹药进行虚拟射击。
S204,根据虚拟射击的射击轨迹以及目标人脸的运动状态,确定虚拟射击是否击中屏幕上的目标人脸。
S205,如果击中,在目标人脸叠加显示相应的击中效果,例如叠加相应的脸部表情反馈,并记录击中次数。
可选的,如果为连续击中,则目标人脸可以有更强烈的反馈。如果目标人脸走出屏幕,则重新扫描,时间进度条暂停前进。
可选的,同时间有其他用户射中同一目标人脸时,展示该用户的头像和从头像位置投射的武器装备。
S206,虚拟射击时间届满,将击中次数上传服务器。
S207,服务器根据击中次数计算排名,击中次数越高的排位越前。
S208,接收服务器反馈的用户排名和分数。
第二方面,相应的,本发明实施例提供一种增强现实装置,能够提高用户在增强现实中的参与度,加强人机交互在增强现实中的应用。
如图4所示,本实施例提供的增强现实装置,包括:
获取单元31,用于通过摄像头获取景物图像并将所述景物图像显示在屏幕上;
生成单元32,用于接收触控指令并根据所述触控指令在所述景物图像上生成虚拟图像。
本发明的实施例提供的增强现实装置,能够通过摄像头获取景物图像并将景物图像显示在屏幕上,然后接收触控指令并根据触控指令在景物图像上生成虚拟图像,这样不仅令用户及时从屏幕上观察到情况并通过触控指令作出反馈,而且能够根据该反馈生成对应的虚拟图像并展示在屏幕上,从而大大提高了用户在增强现实中的参与度,加强了人机交互在增强现实中的应用,有效提升了用户体验。
可选的,所述景物图像中包括目标物体的图像;生成单元32可包括射击生成模块,用于根据所述触控指令在所述景物图像上生成对所述目标物体的虚拟射击图像。
可选的,所述射击生成模块可包括:
第一生成子模块,用于根据所述触控指令在所述景物图像上生成所述虚拟射击的射击轨迹;
第一确定子模块,用于根据所述射击轨迹以及所述目标物体的运动状态,确定所述虚拟射击是否击中屏幕上的所述目标物体;
第一叠加子模块,用于在所述虚拟射击击中屏幕上的所述目标物体的情况下,在所述目标物体的图像上叠加显示相应的击中效果。
可选的,所述第一生成子模块,具体可用于:
根据所述触控指令确定所述虚拟射击的射击方向和弹药飞行速度;
根据所述射击方向和所述弹药飞行速度生成所述虚拟射击的射击轨迹。
可选的,所述第一确定子模块具体可用于:
检测在所述弹药飞出屏幕之前是否与所述目标物体的图像发生碰撞;
根据检测结果确定所述虚拟射击是否击中屏幕上的所述目标物体。
进一步的,所述增强现实装置还可包括显示单元,用于:显示参与对所述目标物体进行虚拟射击的其他用户的头像;当所述其他用户中的任一用户向所述目标物体的图像进行虚拟射击时,在所述任一用户的头像上标识该用户使用的武器装备并显示该武器装备的射击效果。
可选的,所述显示单元,还可用于显示所述其它用户对所述目标物体的击中次数和/或得分排名信息。
可选的,所述景物图像中包括目标物体的图像;生成单元32包括陷阱生成模块,用于根据所述触控指令在所述景物图像上生成对所述目标物体的虚拟陷井图像。
可选的,所述陷阱生成模块可包括:
第二生成子模块,用于根据所述触控指令在所述景物图像上距离所述目标物体预设距离之外的位置生成所述虚拟陷阱;
第二确定子模块,用于经过预设时长后,确定所述目标物体是否掉入所述虚拟陷阱;
第二叠加子模块,用于在所述目标物体掉入所述虚拟陷阱的情况下,在所述目标物体的图像上叠加显示相应的掉入效果。
第三方面,相应的,本发明实施例提供一种增强现实***,能够提高用户在增强现实中的参与度,加强人机交互在增强现实中的应用。
本发明的实施例提供的增强现实***,包括服务器以及至少两个前述实施例提供的增强现实装置;所述服务器与各所述增强现实装置分别相连,用于:
接收各所述增强现实装置发送的虚拟图像数据;
对所述虚拟图像数据进行分析处理;
将分析处理结果向各所述增强现实装置反馈。
本发明实施例提供的增强现实***,通过结合人机交互和增强现实技术将游戏和现实的场景变得更紧密,同时也使图像识别等技术的拓展到娱乐的层面,通过多人参与来实现多人在线社交的AR场景,时时分享,大大提升了用户体验
第四方面,相应的,本发明实施例提供一种电子设备,能够提高用户在增强现实中的参与度,加强人机交互在增强现实中的应用。
如图5所示,本发明的实施例提供的一种电子设备,可以包括:壳体41、处理器42、存储器43、电路板44和电源电路45,其中,电路板44安置在壳体41围成的空间内部,处理器42和存储器43设置在电路板44上;电源电路45,用于为上述电子设备的各个电路或器件供电;存储器43用于存储可执行程序代码;处理器42通过读取存储器43中存储的可执行程序代码来运行与可执行程序代码对应的程序,用于执行前述任一实施例所述的增强现实方法。
处理器42对上述步骤的具体执行过程以及处理器42通过运行可执行程序代码来进一步执行的步骤,可以参见前述实施例的描述,在此不再赘述。
该电子设备以多种形式存在,包括但不限于:
(1)移动通信设备:这类设备的特点是具备移动通信功能,并且以提供话音、数据通信为主要目标。这类终端包括:智能手机(例如iPhone)、多媒体手机、功能性手机,以及低端手机等。
(2)超移动个人计算机设备:这类设备属于个人计算机的范畴,有计算和处理功能,一般也具备移动上网特性。这类终端包括:PDA、MID和UMPC设备等,例如iPad。
(3)便携式娱乐设备:这类设备可以显示和播放多媒体内容。该类设备包括:音频、视频播放器(例如iPod),掌上游戏机,电子书,以及智能玩具和便携式车载导航设备。
(4)服务器:提供计算服务的设备,服务器的构成包括处理器、硬盘、内存、***总线等,服务器和通用的计算机架构类似,但是由于需要提供高可靠的服务,因此在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面要求较高。
(5)其他具有数据交互功能的电子设备。
第五方面,本发明的实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现前述实施例提供的任一种增强现实方法,因此也能实现相应的技术效果,前文已经进行了详细说明,此处不再赘述。
第六方面,本发明的实施例还提供一种应用程序,所述应用程序被执行以实现本发明的实施例提供的任一种增强现实方法,因此也能实现相应的技术效果,前文已经进行了详细说明,此处不再赘述。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个......”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。
尤其,对于装置实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
为了描述的方便,描述以上装置是以功能分为各种单元/模块分别描述。当然,在实施本发明时可以把各单元/模块的功能在同一个或多个软件和/或硬件中实现。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种增强现实方法,其特征在于,包括:
通过摄像头获取景物图像并将所述景物图像显示在屏幕上;
接收触控指令并根据所述触控指令在所述景物图像上生成虚拟图像。
2.根据权利要求1所述的方法,其特征在于,所述景物图像中包括目标物体的图像;
所述根据所述触控指令在所述景物图像上生成虚拟图像包括:根据所述触控指令在所述景物图像上生成对所述目标物体的虚拟射击图像。
3.根据权利要求2所述的方法,其特征在于,所述根据所述触控指令在所述景物图像上生成对所述目标物体的虚拟射击图像包括:
根据所述触控指令在所述景物图像上生成所述虚拟射击的射击轨迹;
根据所述射击轨迹以及所述目标物体的运动状态,确定所述虚拟射击是否击中屏幕上的所述目标物体;
在所述虚拟射击击中屏幕上的所述目标物体的情况下,在所述目标物体的图像上叠加显示相应的击中效果。
4.根据权利要求3所述的方法,其特征在于,所述根据所述触控指令在所述景物图像上生成所述虚拟射击的射击轨迹包括:
根据所述触控指令确定所述虚拟射击的射击方向和弹药飞行速度;
根据所述射击方向和所述弹药飞行速度在所述景物图像上生成所述虚拟射击的射击轨迹。
5.根据权利要求4所述的方法,其特征在于,所述触控指令包括手指在屏幕上的滑动方向;所述虚拟射击的射击方向由所述滑动方向确定。
6.根据权利要求4所述的方法,其特征在于,所述触控指令包括以下至少一种:对屏幕的触摸时长、按压力度、滑动距离;
所述虚拟射击的弹药飞行速度根据所述对屏幕的触摸时长、所述按压力度、所述滑动距离中的至少一种确定。
7.一种增强现实装置,其特征在于,包括:
获取单元,用于通过摄像头获取景物图像并将所述景物图像显示在屏幕上;
生成单元,用于接收触控指令并根据所述触控指令在所述景物图像上生成虚拟图像。
8.一种增强现实***,其特征在于,包括服务器以及至少两个权利要求13至21中任一项所述的增强现实装置;
所述服务器与各所述增强现实装置分别相连,用于:
接收各所述增强现实装置发送的虚拟图像数据;
对所述虚拟图像数据进行分析处理;
将分析处理结果向各所述增强现实装置反馈。
9.一种电子设备,其特征在于,所述电子设备包括:壳体、处理器、存储器、电路板和电源电路,其中,电路板安置在壳体围成的空间内部,处理器和存储器设置在电路板上;电源电路,用于为上述电子设备的各个电路或器件供电;存储器用于存储可执行程序代码;处理器通过读取存储器中存储的可执行程序代码来运行与可执行程序代码对应的程序,用于执行前述权利要求1至6任一项所述的增强现实方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现前述权利要求1至6中任一项所述的增强现实方法。
CN201710915128.4A 2017-09-29 2017-09-29 一种增强现实方法、装置、***、电子设备及存储介质 Pending CN107526443A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710915128.4A CN107526443A (zh) 2017-09-29 2017-09-29 一种增强现实方法、装置、***、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710915128.4A CN107526443A (zh) 2017-09-29 2017-09-29 一种增强现实方法、装置、***、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN107526443A true CN107526443A (zh) 2017-12-29

Family

ID=60684120

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710915128.4A Pending CN107526443A (zh) 2017-09-29 2017-09-29 一种增强现实方法、装置、***、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN107526443A (zh)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108304075A (zh) * 2018-02-11 2018-07-20 亮风台(上海)信息科技有限公司 一种在增强现实设备进行人机交互的方法与设备
CN108391174A (zh) * 2018-03-22 2018-08-10 乐蜜有限公司 直播互动方法、装置和电子设备
CN108519815A (zh) * 2018-03-26 2018-09-11 广东欧珀移动通信有限公司 基于增强现实的车辆控制方法、装置、存储介质和电子设备
CN108829479A (zh) * 2018-06-01 2018-11-16 北京市商汤科技开发有限公司 信息处理方法及装置、存储介质
CN108958475A (zh) * 2018-06-06 2018-12-07 阿里巴巴集团控股有限公司 虚拟对象控制方法、装置及设备
CN109086097A (zh) * 2018-07-03 2018-12-25 百度在线网络技术(北京)有限公司 一种小程序的启动方法、装置、服务器及存储介质
CN110083266A (zh) * 2019-04-02 2019-08-02 上海墨案智能科技有限公司 信息处理方法、装置及存储介质
CN110162258A (zh) * 2018-07-03 2019-08-23 腾讯数码(天津)有限公司 个性化场景图像的处理方法及装置
CN110837764A (zh) * 2018-08-17 2020-02-25 广东虚拟现实科技有限公司 图像处理方法、装置、电子设备及视觉交互***
CN111617471A (zh) * 2020-06-08 2020-09-04 浙江商汤科技开发有限公司 虚拟射击的展示方法、装置、电子设备及存储介质
CN111638793A (zh) * 2020-06-04 2020-09-08 浙江商汤科技开发有限公司 飞行器的展示方法、装置、电子设备及存储介质
CN111632377A (zh) * 2020-06-08 2020-09-08 浙江商汤科技开发有限公司 射击轨迹的展示方法、装置、电子设备及存储介质
WO2020244649A1 (zh) * 2019-06-06 2020-12-10 深圳市道通智能航空技术有限公司 一种避障方法、装置和电子设备
CN113359985A (zh) * 2021-06-03 2021-09-07 北京市商汤科技开发有限公司 数据展示方法、装置、计算机设备以及存储介质
CN113359988A (zh) * 2021-06-03 2021-09-07 北京市商汤科技开发有限公司 一种信息的展示方法、装置、计算机设备及存储介质
CN114584681A (zh) * 2020-11-30 2022-06-03 北京市商汤科技开发有限公司 目标对象的运动展示方法、装置、电子设备及存储介质
US20220254116A1 (en) 2021-02-09 2022-08-11 Beijing Zitiao Network Technology Co., Ltd. Display method based on augmented reality, device, storage medium and program product

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103369288A (zh) * 2012-03-29 2013-10-23 深圳市腾讯计算机***有限公司 基于网络视频的即时通讯方法及***
CN106383587A (zh) * 2016-10-26 2017-02-08 腾讯科技(深圳)有限公司 一种增强现实场景生成方法、装置及设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103369288A (zh) * 2012-03-29 2013-10-23 深圳市腾讯计算机***有限公司 基于网络视频的即时通讯方法及***
CN106383587A (zh) * 2016-10-26 2017-02-08 腾讯科技(深圳)有限公司 一种增强现实场景生成方法、装置及设备

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108304075A (zh) * 2018-02-11 2018-07-20 亮风台(上海)信息科技有限公司 一种在增强现实设备进行人机交互的方法与设备
CN108391174A (zh) * 2018-03-22 2018-08-10 乐蜜有限公司 直播互动方法、装置和电子设备
CN108391174B (zh) * 2018-03-22 2021-08-20 卓米私人有限公司 直播互动方法、装置和电子设备
CN108519815B (zh) * 2018-03-26 2020-10-02 Oppo广东移动通信有限公司 基于增强现实的车辆控制方法、装置、存储介质及电子设备
CN108519815A (zh) * 2018-03-26 2018-09-11 广东欧珀移动通信有限公司 基于增强现实的车辆控制方法、装置、存储介质和电子设备
CN108829479A (zh) * 2018-06-01 2018-11-16 北京市商汤科技开发有限公司 信息处理方法及装置、存储介质
CN108958475A (zh) * 2018-06-06 2018-12-07 阿里巴巴集团控股有限公司 虚拟对象控制方法、装置及设备
CN109086097A (zh) * 2018-07-03 2018-12-25 百度在线网络技术(北京)有限公司 一种小程序的启动方法、装置、服务器及存储介质
CN110162258A (zh) * 2018-07-03 2019-08-23 腾讯数码(天津)有限公司 个性化场景图像的处理方法及装置
CN109086097B (zh) * 2018-07-03 2023-02-28 百度在线网络技术(北京)有限公司 一种小程序的启动方法、装置、服务器及存储介质
CN110837764A (zh) * 2018-08-17 2020-02-25 广东虚拟现实科技有限公司 图像处理方法、装置、电子设备及视觉交互***
CN110083266A (zh) * 2019-04-02 2019-08-02 上海墨案智能科技有限公司 信息处理方法、装置及存储介质
CN110083266B (zh) * 2019-04-02 2022-05-13 上海墨案智能科技有限公司 信息处理方法、装置及存储介质
WO2020244649A1 (zh) * 2019-06-06 2020-12-10 深圳市道通智能航空技术有限公司 一种避障方法、装置和电子设备
CN111638793A (zh) * 2020-06-04 2020-09-08 浙江商汤科技开发有限公司 飞行器的展示方法、装置、电子设备及存储介质
CN111638793B (zh) * 2020-06-04 2023-09-01 浙江商汤科技开发有限公司 飞行器的展示方法、装置、电子设备及存储介质
CN111632377A (zh) * 2020-06-08 2020-09-08 浙江商汤科技开发有限公司 射击轨迹的展示方法、装置、电子设备及存储介质
CN111617471A (zh) * 2020-06-08 2020-09-04 浙江商汤科技开发有限公司 虚拟射击的展示方法、装置、电子设备及存储介质
CN114584681A (zh) * 2020-11-30 2022-06-03 北京市商汤科技开发有限公司 目标对象的运动展示方法、装置、电子设备及存储介质
US20220254116A1 (en) 2021-02-09 2022-08-11 Beijing Zitiao Network Technology Co., Ltd. Display method based on augmented reality, device, storage medium and program product
EP4071725A4 (en) * 2021-02-09 2023-07-05 Beijing Zitiao Network Technology Co., Ltd. AUGMENTED REALITY-BASED DISPLAY METHOD AND DEVICE, STORAGE MEDIA AND PRODUCT-PROGRAM
US11763533B2 (en) 2021-02-09 2023-09-19 Beijing Zitiao Network Technology Co., Ltd. Display method based on augmented reality, device, storage medium and program product
CN113359985A (zh) * 2021-06-03 2021-09-07 北京市商汤科技开发有限公司 数据展示方法、装置、计算机设备以及存储介质
CN113359988A (zh) * 2021-06-03 2021-09-07 北京市商汤科技开发有限公司 一种信息的展示方法、装置、计算机设备及存储介质

Similar Documents

Publication Publication Date Title
CN107526443A (zh) 一种增强现实方法、装置、***、电子设备及存储介质
US11045727B2 (en) Opposition trigger of moment clips
CN109034397B (zh) 模型训练方法、装置、计算机设备及存储介质
CN108958475B (zh) 虚拟对象控制方法、装置及设备
US11745103B2 (en) Methods for providing customized camera views in virtualized environments based on touch-based user input
US20170192500A1 (en) Method and electronic device for controlling terminal according to eye action
US20200368620A1 (en) Systems and Methods for Customized Camera Views and Customizable Objects in Virtualized Environments
CN109529356B (zh) 对战结果确定方法、装置及存储介质
CN102736731A (zh) 智能玩游戏照片捕捉
CN114155605B (zh) 一种控制方法、装置以及计算机存储介质
CN105324736A (zh) 触摸式和非触摸式用户交互输入的技术
JP6450875B1 (ja) ゲームプログラム、ゲーム方法、および情報処理装置
CN109529340A (zh) 虚拟对象控制方法、装置、电子设备及存储介质
KR20170013539A (ko) 증강현실 기반의 게임 시스템 및 방법
CN113544697A (zh) 用数据和身体姿态分析运动表现以对表现进行个性化预测
CN105468249B (zh) 智能互动***及其控制方法
CN111013135A (zh) 一种交互方法、装置、介质和电子设备
JP2019098163A (ja) ゲームプログラム、方法、および情報処理装置
US20220394194A1 (en) Computer-readable recording medium, computer apparatus, and control method
CN113873162A (zh) 拍摄方法、装置、电子设备和可读存储介质
CN116983638A (zh) 虚拟对象的互动方法、装置、设备、存储介质及程序产品
CN115278082A (zh) 视频拍摄方法、视频拍摄装置及电子设备
CN117959710A (zh) 一种游戏数据处理方法、装置、设备以及介质
CN115866352A (zh) 交互方法、装置、电子设备、可读存储介质及程序产品
CN116966564A (zh) 作用痕迹回放方法、装置、存储介质及计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
CB03 Change of inventor or designer information

Inventor after: Guo Jianan

Inventor after: Gan Yu

Inventor after: Hou Wenpei

Inventor after: Qiao Li

Inventor after: Jiao Diqin

Inventor after: Yu Zhilan

Inventor after: Gong Xue

Inventor after: Zhu Mingen

Inventor after: Chen Xiaoqing

Inventor after: Li Yuan

Inventor before: Guo Jianan

Inventor before: Gan Yu

Inventor before: Hou Wenpei

Inventor before: Qiao Li

Inventor before: Jiao Diqin

Inventor before: Yu Zhilan

Inventor before: Zhangliang Yuxiao

Inventor before: Zhu Mingen

Inventor before: Chen Xiaoqing

Inventor before: Li Yuan

CB03 Change of inventor or designer information
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20171229

RJ01 Rejection of invention patent application after publication