CN106155311A - Ar头戴设备、ar交互***及ar场景的交互方法 - Google Patents
Ar头戴设备、ar交互***及ar场景的交互方法 Download PDFInfo
- Publication number
- CN106155311A CN106155311A CN201610489453.4A CN201610489453A CN106155311A CN 106155311 A CN106155311 A CN 106155311A CN 201610489453 A CN201610489453 A CN 201610489453A CN 106155311 A CN106155311 A CN 106155311A
- Authority
- CN
- China
- Prior art keywords
- helmet
- interactive
- user
- operating gesture
- described object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种AR头戴设备、AR交互***及AR场景的交互方法,其中,该AR头戴设备包括:获取模块,用于通过摄像头获取AR场景中的对象;匹配模块,用于将对象与预设特征数据库中的特征值进行匹配,以确定对象是否为可交互对象;执行模块,用于在对象为可交互对象的情况下,根据用户的操作手势对对象执行预定的交互动作。本发明不需要引用类似键盘或鼠标等的外接设备,只需要用户手部直接操作即可,摄像头捕捉用户的操作手势,就可以根据该操作手势来对对象执行相应的操作,解决了现有技术中在用户使用AR头戴设备时,互联网观众需要借助外接的键盘、鼠标等设备进行输入,操作复杂的问题。
Description
技术领域
本发明涉及通讯领域,尤其涉及一种AR(增强现实技术,Augmented Reality)头戴设备、AR交互***及AR场景的交互方法。
背景技术
AR是一种实时地计算摄影机影像的位置及角度并加上相应图像、视频、3D模型的技术,这种技术的目标是在屏幕上把虚拟世界套在现实世界并进行互动。随着随身电子产品CPU(中央处理器,Central Processing Unit)运算能力的提升,预期增强现实的用途将会越来越广。
现有技术中在用户使用AR头戴设备时,互联网观众需要借助外接的键盘、鼠标等设备进行输入,操作复杂;且输入数据收集后投射至该用户的AR头戴设备屏幕,此操作效果仅为一个人服务,服务范围狭隘。
发明内容
本发明的主要目的在于提出一种AR头戴设备、AR交互***及AR场景的交互方法,旨在解决现有技术中在用户使用AR头戴设备时,互联网观众需要借助外接的键盘、鼠标等设备进行输入,操作复杂。
为实现上述目的,本发明提供的一种AR头戴设备,包括:获取模块,用于通过摄像头获取AR场景中的对象;匹配模块,用于将所述对象与预设特征数据库中的特征值进行匹配,以确定所述对象是否为可交互对象;执行模块,用于在所述对象为可交互对象的情况下,根据用户的操作手势对所述对象执行预定的交互动作。
可选的,所述匹配模块包括:特征匹配单元,用于判断所述预设特征数据库中是否存在与所述对象达到预设匹配度的特征值;确定单元,用于在所述预设特征数据库中存在与所述对象达到预设匹配度的特征值时,确定所述对象为可交互对象。
可选的,所述执行模块包括:判断单元,用于判断所述操作手势是否对所述对象有遮挡;操作匹配单元,用于在所述操作手势对所述对象有遮挡的情况下,将所述操作手势与预设操作数据库中的操作手势进行匹配,以确定所述操作手势对应的操作内容,其中,所述操作内容至少包括以下之一:新建、编辑、发送、删除、拖拽、放大、缩小、选择;执行单元,用于根据所述操作内容对所述对象进行操作。
可选的,还包括:所述获取模块,还用于根据用户的操作手势对所述对象执行预定的交互动作之前,从云端服务器获取所述对象的可交互操作的类型,其中,所述类型至少包括以下之一:购买交互,数字标签交互
此外,为实现上述目的,本发明还提出一种AR交互***,包括:云端服务器和上述任一项所述的AR头戴设备;所述云端服务器,与连接至所述云端服务器的所有AR头戴设备交互,并在接收到某一AR头戴设备操作完成的数字标签的情况下,在下一个标签更新时间到来时,将所述数字标签推送至所述所有AR头戴设备。
此外,为实现上述目的,本发明还提出一种AR场景的交互方法,所述方法包括步骤:AR头戴设备通过摄像头获取AR场景中的对象;所述AR头戴设备将所述对象与预设特征数据库中的特征值进行匹配,以确定所述对象是否为可交互对象;在所述对象为可交互对象的情况下,所述AR头戴设备根据用户的操作手势对所述对象执行预定的交互动作。
可选的,所述AR头戴设备将所述对象与预设特征数据库中的特征值进行匹配,以确定所述对象是否为可交互对象的步骤,包括:所述AR头戴设备判断所述预设特征数据库中是否存在与所述对象达到预设匹配度的特征值;在所述预设特征数据库中存在与所述对象达到预设匹配度的特征值时,所述AR头戴设备确定所述对象为可交互对象。
可选的,所述AR头戴设备根据用户的操作手势对所述对象执行预定的交互动作的步骤,包括:所述AR头戴设备判断所述操作手势是否对所述对象有遮挡;在所述操作手势对所述对象有遮挡的情况下,所述AR头戴设备将所述操作手势与预设操作数据库中的操作手势进行匹配,以确定所述操作手势对应的操作内容,其中,所述操作内容至少包括以下之一:新建、编辑、发送、删除、拖拽、放大、缩小、选择;所述AR头戴设备根据所述操作内容对所述对象进行操作。
可选的,所述AR头戴设备根据用户的操作手势对所述对象执行预定的交互动作的步骤之前,还包括:所述AR头戴设备从云端服务器获取所述对象的可交互操作的类型,其中,所述类型至少包括以下之一:购买交互,数字标签交互。
可选的,在可交互操作的类型为数字标签交互的情况下,根据所述操作内容对所述对象进行操作的步骤之后,还包括:所述云端服务器接收AR头戴设备操作完成的数字标签;所述云端服务器在下一个标签更新时间到来时,将接收到的所述数字标签推送至与所述云端服务器连接的所有AR头戴设备。
本发明通过摄像头获取AR场景中的对象,并度该对象的可交互性进行分析,在对象为可交互对象的情况下,根据用户的操作手势来对对象执行一些交互动作,该过程中不需要引用类似键盘或鼠标等的外接设备,只需要用户手部直接操作即可,摄像头捕捉用户的操作手势,就可以根据该操作手势来对对象执行相应的操作,解决了现有技术中在用户使用AR头戴设备时,互联网观众需要借助外接的键盘、鼠标等设备进行输入,操作复杂的问题。
附图说明
图1为实现本发明实施例一可选的移动终端的硬件结构示意图;
图2为如图1所示的移动终端的无线通信***示意图;
图3为实现本发明第一实施例的AR头戴设备的结构示意图;
图4为实现本发明第二实施例的AR头戴设备的结构示意图;
图5为实现本发明第三实施例的AR交互***的***交互示意图;
图6为实现本发明第四实施例的AR场景的交互方法的流程图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
现在将参考附图描述实现本发明各个实施例的移动终端。在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身并没有特定的意义。因此,"模块"与"部件"可以混合地使用。
移动终端可以以各种形式来实施。例如,本发明中描述的终端可以包括诸如移动电话、智能电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、导航装置等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。下面,假设终端是移动终端。然而,本领域技术人员将理解的是,除了特别用于移动目的的元件之外,根据本发明的实施方式的构造也能够应用于固定类型的终端。
图1为实现本发明各个实施例一可选的移动终端的硬件结构示意。
移动终端100可以包括无线通信单元110、A/V(音频/视频)输入单元120、用户输入单元130、感测单元140、输出单元150、存储器160、接口单元170、控制器180和电源单元190等等。图1示出了具有各种组件的移动终端,但是应理解的是,并不要求实施所有示出的组件。可以替代地实施更多或更少的组件。将在下面详细描述移动终端的元件。
无线通信单元110通常包括一个或多个组件,其允许移动终端100与无线通信***或网络之间的无线电通信。例如,无线通信单元可以包括广播接收模块111、移动通信模块112、无线互联网模块113、短程通信模块114和位置信息模块115中的至少一个。
广播接收模块111经由广播信道从外部广播管理服务器接收广播信号和/或广播相关信息。广播信道可以包括卫星信道和/或地面信道。广播管理服务器可以是生成并发送广播信号和/或广播相关信息的服务器或者接收之前生成的广播信号和/或广播相关信息并且将其发送给终端的服务器。广播信号可以包括TV广播信号、无线电广播信号、数据广播信号等等。而且,广播信号可以进一步包括与TV或无线电广播信号组合的广播信号。广播相关信息也可以经由移动通信网络提供,并且在该情况下,广播相关信息可以由移动通信模块112来接收。广播信号可以以各种形式存在,例如,其可以以数字多媒体广播(DMB)的电子节目指南(EPG)、数字视频广播手持(DVB-H)的电子服务指南(ESG)等等的形式而存在。广播接收模块111可以通过使用各种类型的广播***接收信号广播。特别地,广播接收模块111可以通过使用诸如多媒体广播-地面(DMB-T)、数字多媒体广播-卫星(DMB-S)、数字视频广播-手持(DVB-H),前向链路媒体(MediaFLO@)的数据广播***、地面数字广播综合服务(ISDB-T)等等的数字广播***接收数字广播。广播接收模块111可以被构造为适合提供广播信号的各种广播***以及上述数字广播***。经由广播接收模块111接收的广播信号和/或广播相关信息可以存储在存储器160(或者其它类型的存储介质)中。
移动通信模块112将无线电信号发送到基站(例如,接入点、节点B等等)、外部终端以及服务器中的至少一个和/或从其接收无线电信号。这样的无线电信号可以包括语音通话信号、视频通话信号、或者根据文本和/或多媒体消息发送和/或接收的各种类型的数据。
无线互联网模块113支持移动终端的无线互联网接入。该模块可以内部或外部地耦接到终端。该模块所涉及的无线互联网接入技术可以包括WLAN(无线LAN)(Wi-Fi)、Wibro(无线宽带)、Wimax(全球微波互联接入)、HSDPA(高速下行链路分组接入)等等。
短程通信模块114是用于支持短程通信的模块。短程通信技术的一些示例包括蓝牙TM、射频识别(RFID)、红外数据协会(IrDA)、超宽带(UWB)、紫蜂TM等等。
位置信息模块115是用于检查或获取移动终端的位置信息的模块。位置信息模块的典型示例是GPS(全球定位***)。根据当前的技术,GPS模块115计算来自三个或更多卫星的距离信息和准确的时间信息并且对于计算的信息应用三角测量法,从而根据经度、纬度和高度准确地计算三维当前位置信息。当前,用于计算位置和时间信息的方法使用三颗卫星并且通过使用另外的一颗卫星校正计算出的位置和时间信息的误差。此外,GPS模块115能够通过实时地连续计算当前位置信息来计算速度信息。
A/V输入单元120用于接收音频或视频信号。A/V输入单元120可以包括相机121和麦克风1220,相机121对在视频捕获模式或图像捕获模式中由图像捕获装置获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元151上。经相机121处理后的图像帧可以存储在存储器160(或其它存储介质)中或者经由无线通信单元110进行发送,可以根据移动终端的构造提供两个或更多相机1210。麦克风122可以在电话通话模式、记录模式、语音识别模式等等运行模式中经由麦克风接收声音(音频数据),并且能够将这样的声音处理为音频数据。处理后的音频(语音)数据可以在电话通话模式的情况下转换为可经由移动通信模块112发送到移动通信基站的格式输出。麦克风122可以实施各种类型的噪声消除(或抑制)算法以消除(或抑制)在接收和发送音频信号的过程中产生的噪声或者干扰。
用户输入单元130可以根据用户输入的命令生成键输入数据以控制移动终端的各种操作。用户输入单元130允许用户输入各种类型的信息,并且可以包括键盘、锅仔片、触摸板(例如,检测由于被接触而导致的电阻、压力、电容等等的变化的触敏组件)、滚轮、摇杆等等。特别地,当触摸板以层的形式叠加在显示单元151上时,可以形成触摸屏。
感测单元140检测移动终端100的当前状态,(例如,移动终端100的打开或关闭状态)、移动终端100的位置、用户对于移动终端100的接触(即,触摸输入)的有无、移动终端100的取向、移动终端100的加速或减速移动和方向等等,并且生成用于控制移动终端100的操作的命令或信号。例如,当移动终端100实施为滑动型移动电话时,感测单元140可以感测该滑动型电话是打开还是关闭。另外,感测单元140能够检测电源单元190是否提供电力或者接口单元170是否与外部装置耦接。
接口单元170用作至少一个外部装置与移动终端100连接可以通过的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。识别模块可以是存储用于验证用户使用移动终端100的各种信息并且可以包括用户识别模块(UIM)、客户识别模块(SIM)、通用客户识别模块(USIM)等等。另外,具有识别模块的装置(下面称为"识别装置")可以采取智能卡的形式,因此,识别装置可以经由端口或其它连接装置与移动终端100连接。接口单元170可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到移动终端100内的一个或多个元件或者可以用于在移动终端和外部装置之间传输数据。
另外,当移动终端100与外部底座连接时,接口单元170可以用作允许通过其将电力从底座提供到移动终端100的路径或者可以用作允许从底座输入的各种命令信号通过其传输到移动终端的路径。从底座输入的各种命令信号或电力可以用作用于识别移动终端是否准确地安装在底座上的信号。输出单元150被构造为以视觉、音频和/或触觉方式提供输出信号(例如,音频信号、视频信号、警报信号、振动信号等等)。输出单元150可以包括显示单元151、音频输出模块152、警报单元153等等。
显示单元151可以显示在移动终端100中处理的信息。例如,当移动终端100处于电话通话模式时,显示单元151可以显示与通话或其它通信(例如,文本消息收发、多媒体文件下载等等)相关的用户界面(UI)或图形用户界面(GUI)。当移动终端100处于视频通话模式或者图像捕获模式时,显示单元151可以显示捕获的图像和/或接收的图像、示出视频或图像以及相关功能的UI或GUI等等。
同时,当显示单元151和触摸板以层的形式彼此叠加以形成触摸屏时,显示单元151可以用作输入装置和输出装置。显示单元151可以包括液晶显示器(LCD)、薄膜晶体管LCD(TFT-LCD)、有机发光二极管(OLED)显示器、柔性显示器、三维(3D)显示器等等中的至少一种。这些显示器中的一些可以被构造为透明状以允许用户从外部观看,这可以称为透明显示器,典型的透明显示器可以例如为TOLED(透明有机发光二极管)显示器等等。根据特定想要的实施方式,移动终端100可以包括两个或更多显示单元(或其它显示装置),例如,移动终端可以包括外部显示单元(未示出)和内部显示单元(未示出)。触摸屏可用于检测触摸输入压力以及触摸输入位置和触摸输入面积。
音频输出模块152可以在移动终端处于呼叫信号接收模式、通话模式、记录模式、语音识别模式、广播接收模式等等模式下时,将无线通信单元110接收的或者在存储器160中存储的音频数据转换音频信号并且输出为声音。而且,音频输出模块152可以提供与移动终端100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出模块152可以包括扬声器、蜂鸣器等等。
警报单元153可以提供输出以将事件的发生通知给移动终端100。典型的事件可以包括呼叫接收、消息接收、键信号输入、触摸输入等等。除了音频或视频输出之外,警报单元153可以以不同的方式提供输出以通知事件的发生。例如,警报单元153可以以振动的形式提供输出,当接收到呼叫、消息或一些其它进入通信(incomingcommunication)时,警报单元153可以提供触觉输出(即,振动)以将其通知给用户。通过提供这样的触觉输出,即使在用户的移动电话处于用户的口袋中时,用户也能够识别出各种事件的发生。警报单元153也可以经由显示单元151或音频输出模块152提供通知事件的发生的输出。
存储器160可以存储由控制器180执行的处理和控制操作的软件程序等等,或者可以暂时地存储己经输出或将要输出的数据(例如,电话簿、消息、静态图像、视频等等)。而且,存储器160可以存储关于当触摸施加到触摸屏时输出的各种方式的振动和音频信号的数据。
存储器160可以包括至少一种类型的存储介质,所述存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等等。而且,移动终端100可以与通过网络连接执行存储器160的存储功能的网络存储装置协作。
控制器180通常控制移动终端的总体操作。例如,控制器180执行与语音通话、数据通信、视频通话等等相关的控制和处理。另外,控制器180可以包括用于再现(或回放)多媒体数据的多媒体模块1810,多媒体模块1810可以构造在控制器180内,或者可以构造为与控制器180分离。控制器180可以执行模式识别处理,以将在触摸屏上执行的手写输入或者图片绘制输入识别为字符或图像。
电源单元190在控制器180的控制下接收外部电力或内部电力并且提供操作各元件和组件所需的适当的电力。
这里描述的各种实施方式可以以使用例如计算机软件、硬件或其任何组合的计算机可读介质来实施。对于硬件实施,这里描述的实施方式可以通过使用特定用途集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理装置(DSPD)、可编程逻辑装置(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微控制器、微处理器、被设计为执行这里描述的功能的电子单元中的至少一种来实施,在一些情况下,这样的实施方式可以在控制器180中实施。对于软件实施,诸如过程或功能的实施方式可以与允许执行至少一种功能或操作的单独的软件模块来实施。软件代码可以由以任何适当的编程语言编写的软件应用程序(或程序)来实施,软件代码可以存储在存储器160中并且由控制器180执行。
至此,己经按照其功能描述了移动终端。下面,为了简要起见,将描述诸如折叠型、直板型、摆动型、滑动型移动终端等等的各种类型的移动终端中的滑动型移动终端作为示例。因此,本发明能够应用于任何类型的移动终端,并且不限于滑动型移动终端。
如图1中所示的移动终端100可以被构造为利用经由帧或分组发送数据的诸如有线和无线通信***以及基于卫星的通信***来操作。
现在将参考图2描述其中根据本发明的移动终端能够操作的通信***。
这样的通信***可以使用不同的空中接口和/或物理层。例如,由通信***使用的空中接口包括例如频分多址(FDMA)、时分多址(TDMA)、码分多址(CDMA)和通用移动通信***(UMTS)(特别地,长期演进(LTE))、全球移动通信***(GSM)等等。作为非限制性示例,下面的描述涉及CDMA通信***,但是这样的教导同样适用于其它类型的***。
参考图2,CDMA无线通信***可以包括多个移动终端100、多个基站(BS)270、基站控制器(BSC)275和移动交换中心(MSC)280。MSC280被构造为与公共电话交换网络(PSTN)290形成接口。MSC280还被构造为与可以经由回程线路耦接到基站270的BSC275形成接口。回程线路可以根据若干己知的接口中的任一种来构造,所述接口包括例如E1/T1、ATM,IP、PPP、帧中继、HDSL、ADSL或xDSL。将理解的是,如图2中所示的***可以包括多个BSC2750。
每个BS270可以服务一个或多个分区(或区域),由多向天线或指向特定方向的天线覆盖的每个分区放射状地远离BS270。或者,每个分区可以由用于分集接收的两个或更多天线覆盖。每个BS270可以被构造为支持多个频率分配,并且每个频率分配具有特定频谱(例如,1.25MHz,5MHz等等)。
分区与频率分配的交叉可以被称为CDMA信道。BS270也可以被称为基站收发器子***(BTS)或者其它等效术语。在这样的情况下,术语"基站"可以用于笼统地表示单个BSC275和至少一个BS270。基站也可以被称为"蜂窝站"。或者,特定BS270的各分区可以被称为多个蜂窝站。
如图2中所示,广播发射器(BT)295将广播信号发送给在***内操作的移动终端100。如图1中所示的广播接收模块111被设置在移动终端100处以接收由BT295发送的广播信号。在图2中,示出了几个全球定位***(GPS)卫星300。卫星300帮助定位多个移动终端100中的至少一个。
在图2中,描绘了多个卫星300,但是理解的是,可以利用任何数目的卫星获得有用的定位信息。如图1中所示的GPS模块115通常被构造为与卫星300配合以获得想要的定位信息。替代GPS跟踪技术或者在GPS跟踪技术之外,可以使用可以跟踪移动终端的位置的其它技术。另外,至少一个GPS卫星300可以选择性地或者额外地处理卫星DMB传输。
作为无线通信***的一个典型操作,BS270接收来自各种移动终端100的反向链路信号。移动终端100通常参与通话、消息收发和其它类型的通信。特定基站270接收的每个反向链路信号被在特定BS270内进行处理。获得的数据被转发给相关的BSC275。BSC提供通话资源分配和包括BS270之间的软切换过程的协调的移动管理功能。BSC275还将接收到的数据路由到MSC280,其提供用于与PSTN290形成接口的额外的路由服务。类似地,PSTN290与MSC280形成接口,MSC与BSC275形成接口,并且BSC275相应地控制BS270以将正向链路信号发送到移动终端100。
AR头戴设备也属于移动终端的一种,其具备移动终端的各种特质,可以将上述移动终端的各种模块设置在AR头戴设备中,使AR头戴设备有完备的通信交互功能。
现基于上述移动终端硬件结构以及通信***,提出本发明各个实施例。
本发明第一实施例提出一种AR头戴设备,其结构示意如图3所示,包括:
获取模块10,用于通过摄像头获取AR场景中的对象;
匹配模块11,用于将对象与预设特征数据库中的特征值进行匹配,以确定对象是否为可交互对象;
执行模块12,用于在对象为可交互对象的情况下,根据用户的操作手势对对象执行预定的交互动作。
在实现上述AR头戴设备的过程中,如果将AR头戴设备设置为具备完备通信功能的移动终端,则上述的获取模块10、匹配模块11和执行模块12对应的功能都可以设置在处理器中实现。对于AR头戴设备,其可以是头盔形式的,也可以是眼镜形式的,当然,也可以是眼罩形式等等。
AR头戴设备通常都具有光学摄像头和红外摄像头,光学摄像头是用于对日常景物进行拍照,而红外摄像头由于其利用了红外线的特点,能够穿入人体组织,这样,就可以增强图像捕捉能力,尤其是夜间图像的捕捉能力。
本实施例的获取模块10利用了AR头戴设备具有的光学摄像头和红外摄像头来获取AR场景中的对象。对于获取的对象,其可以是多种表现形式,例如,人、商品、展品等。
在获取模块10获取到了AR场景中的对象之后,匹配模块11将该对象与预设特征数据库中的特征值进行匹配,来确定上述对象是否为可交互对象。其中,预设特征数据库中的特征值就是对象的一种相关映射,例如,通过摄像头捕捉到一瓶药,则可以将该药瓶与预设特征数据库中的类似图片进行匹配,以寻找到相似的图片。在与类似图片进行匹配时,可以先按照一定的相似度寻找类似图片,例如,寻找相似度在80%以上的图片。当然,也可以通过现有技术扫码形式来获取对象信息,例如,通过摄像头扫描药瓶上的二维码来获取对象信息,将获取到的对象信息和预设特征数据库中的对象信息进行匹配,来确定该药是否为可购买或可评论等。
在匹配模块11确定对象为可交互对象后,就可以通过执行模块12对上述对象执行交互动作了,即执行模块12根据用户的操作手势对对象执行预定的交互动作。
执行模块12在获取用户操作手势时,如果只是单一的操作手势,例如点击操作,则给用户带来的趣味性较小,因此,为了能够让用户在使用AR头戴设备进行交互时更具有趣味性,则需要对用户的操作手势来进行一个识别。
在识别的过程中,首先要确定该手势是否对已确定的对象具有操作权限,因此,需要判断用户的手是否在对象前面,如果在对象前面,则可以进行各种操作,如果在对象后面,即对象遮挡了手,就无法辨别手势是什么动作。
确定用户的手在对象前面后,就可以分析用户的操作手势是什么了,不同的操作手势对应不同的动作。例如,如果用户的两只手指分别沿两个相反的方向移动,则说明此时用户可能需要将对象进行放大;如果用户的手指双击对象,说明用户可能想放大对象,或者,可能想对该对象添加评论等,则此时可以根据双击操作对应的功能来对对象进行操作。当然了,可以根据不同的操作手势执行不同的动作,例如,新建、编辑、发送、删除、拖拽、放大、缩小、选择等操作,该操作的设定可参考在使用鼠标和键盘进行输入时的习惯来操作,以更好的方便用户快速适应AR头戴设备,此处不再赘述。
在用户通过AR头戴设备操作完对象后,需要将操作信息发送至与AR头戴设备交互的云端服务器。如果用户操作信息是针对商品的购买,则云端服务器可以将该信息发送至购买商品所在网站对应的服务器,如果用户操作信息是针对某人或作品的数字标签编辑(评述、讨论等),则在收到操作信息后,需要将操作信息发送至所有连接至该云端服务器的其他AR头戴设备,这样,其他AR头戴设备都可以呈现该数字标签,实现弹幕效果。在将数字标签发送至其他AR头戴设备时,可以设置各种呈现方式,例如,弹幕3D环绕对象,或者,弹幕淡入淡出等。
本发明实施例通过摄像头获取AR场景中的对象,并度该对象的可交互性进行分析,在对象为可交互对象的情况下,根据用户的操作手势来对对象执行一些交互动作,该过程中不需要引用类似键盘或鼠标等的外接设备,只需要用户手部直接操作即可,摄像头捕捉用户的操作手势,就可以根据该操作手势来对对象执行相应的操作,解决了现有技术中在用户使用AR头戴设备时,互联网观众需要借助外接的键盘、鼠标等设备进行输入,操作复杂的问题。
本发明第二实施例提出一种AR头戴设备,其结构示意如图4所示,包括:
获取模块20,用于通过摄像头获取AR场景中的对象;
匹配模块21,用于将对象与预设特征数据库中的特征值进行匹配,以确定对象是否为可交互对象;
执行模块22,用于在对象为可交互对象的情况下,根据用户的操作手势对对象执行预定的交互动作。
其中,上述匹配模块21包括:特征匹配单元210,用于判断预设特征数据库中是否存在与对象达到预设匹配度的特征值;确定单元211,用于在预设特征数据库中存在与对象达到预设匹配度的特征值时,确定对象为可交互对象。
上述执行模块22包括:判断单元220,用于判断操作手势是否对对象有遮挡;操作匹配单元221,用于在操作手势对对象有遮挡的情况下,将操作手势与预设操作数据库中的操作手势进行匹配,以确定操作手势对应的操作内容,其中,操作内容至少包括以下之一:新建、编辑、发送、删除、拖拽、放大、缩小、选择;执行单元222,用于根据操作内容对对象进行操作。
在实现上述AR头戴设备的过程中,如果将AR头戴设备设置为具备完备通信功能的移动终端,则上述的获取模块20、匹配模块21和执行模块22对应的功能都可以设置在处理器中实现。对于AR头戴设备,其可以是头盔形式的,也可以是眼镜形式的,当然,也可以是眼罩形式等等。
AR头戴设备通常都具有光学摄像头和红外摄像头,光学摄像头是用于对日常景物进行拍照,而红外摄像头由于其利用了红外线的特点,能够穿入人体组织,这样,就可以增强图像捕捉能力,尤其是夜间图像的捕捉能力。
本实施例的获取模块20利用了AR头戴设备具有的光学摄像头和红外摄像头来获取AR场景中的对象。对于获取的对象,其可以是多种表现形式,例如,人、商品、展品等。
在获取模块20获取到了AR场景中的对象之后,匹配模块21的特征匹配单元210将该对象与预设特征数据库中的特征值进行匹配,并通过确定单元211来确定上述对象是否为可交互对象。其中,预设特征数据库中的特征值就是对象的一种相关映射,例如,通过摄像头捕捉到一瓶药,则可以将该药瓶与预设特征数据库中的类似图片进行匹配,以寻找到相似的图片。在与类似图片进行匹配时,可以先按照一定的相似度寻找类似图片,例如,寻找相似度在80%以上的图片。当然,也可以通过现有技术扫码形式来获取对象信息,例如,通过摄像头扫描药瓶上的二维码来获取对象信息,将获取到的对象信息和预设特征数据库中的对象信息进行匹配,来确定该药是否为可购买或可评论等。
在匹配模块21确定对象为可交互对象后,获取模块20还从云端服务器获取对象的可交互操作的类型,其中,类型至少包括以下之一:购买交互,数字标签交互。在确定对象的可交互操作的类型后,可以将该类型呈现给用户,用户就可以知道可以进行哪些交互操作了,通过执行模块22根据用户的操作手势对对象执行预定的交互动作。
执行模块22在获取用户操作手势时,如果只是单一的操作手势,例如点击操作,则给用户带来的趣味性较小,因此,为了能够让用户在使用AR头戴设备进行交互时更具有趣味性,则需要对用户的操作手势来进行一个识别。
在识别的过程中,首先要确定该手势是否对已确定的对象具有操作权限,因此,需要判断单元220判断用户的手是否在对象前面,如果在对象前面,则可以进行各种操作,如果在对象后面,即对象遮挡了手,就无法辨别手势是什么动作。
确定用户的手在对象前面后,操作匹配单元221就可以分析用户的操作手势是什么了,执行单元222就可以根据不同的操作手势执行不同的动作。例如,如果用户的两只手指分别沿两个相反的方向移动,则说明此时用户可能需要将对象进行放大;如果用户的手指双击对象,说明用户可能想放大对象,或者,可能想对该对象添加评论等,则此时可以根据双击操作对应的功能来对对象进行操作。当然了,可以根据不同的操作手势执行不同的动作,例如,新建、编辑、发送、删除、拖拽、放大、缩小、选择等操作,该操作的设定可参考在使用鼠标和键盘进行输入时的习惯来操作,以更好的方便用户快速适应AR头戴设备。
本发明第三实施例提出一种AR交互***,其***交互示意如图5所示,包括:
云端服务器1和多个AR头戴设备2;
云端服务器1,与连接至云端服务器的所有AR头戴设备2交互,并接收某一AR头戴设备2传输的操作数据,在操作数据为操作完成的数字标签的情况下,在下一个标签更新时间到来时,将数字标签推送至所有AR头戴设备2。
其中,上述的任意AR头戴设备2都包括以下模块:
获取模块30,用于通过摄像头获取AR场景中的对象;
匹配模块31,用于将对象与预设特征数据库中的特征值进行匹配,以确定对象是否为可交互对象;
执行模块32,用于在对象为可交互对象的情况下,根据用户的操作手势对对象执行预定的交互动作。
在实现上述AR头戴设备的过程中,如果将AR头戴设备设置为具备完备通信功能的移动终端,则上述的获取模块30、匹配模块31和执行模块32对应的功能都可以设置在处理器中实现。对于AR头戴设备,其可以是头盔形式的,也可以是眼镜形式的,当然,也可以是眼罩形式等等。
AR头戴设备通常都具有光学摄像头和红外摄像头,光学摄像头是用于对日常景物进行拍照,而红外摄像头由于其利用了红外线的特点,能够穿入人体组织,这样,就可以增强图像捕捉能力,尤其是夜间图像的捕捉能力。
本实施例的获取模块30利用了AR头戴设备具有的光学摄像头和红外摄像头来获取AR场景中的对象。对于获取的对象,其可以是多种表现形式,例如,人、商品、展品等。
在获取模块30获取到了AR场景中的对象之后,匹配模块31将该对象与预设特征数据库中的特征值进行匹配,来确定上述对象是否为可交互对象。其中,预设特征数据库中的特征值就是对象的一种相关映射,例如,通过摄像头捕捉到一瓶药,则可以将该药瓶与预设特征数据库中的类似图片进行匹配,以寻找到相似的图片。在与类似图片进行匹配时,可以先按照一定的相似度寻找类似图片,例如,寻找相似度在80%以上的图片。当然,也可以通过现有技术扫码形式来获取对象信息,例如,通过摄像头扫描药瓶上的二维码来获取对象信息,将获取到的对象信息和预设特征数据库中的对象信息进行匹配,来确定该药是否为可购买或可评论等。
在匹配模块31确定对象为可交互对象后,就可以通过执行模块32对上述对象执行交互动作了,即执行模块32根据用户的操作手势对对象执行预定的交互动作。
执行模块32在获取用户操作手势时,如果只是单一的操作手势,例如点击操作,则给用户带来的趣味性较小,因此,为了能够让用户在使用AR头戴设备进行交互时更具有趣味性,则需要对用户的操作手势来进行一个识别。
在识别的过程中,首先要确定该手势是否对已确定的对象具有操作权限,因此,需要判断用户的手是否在对象前面,如果在对象前面,则可以进行各种操作,如果在对象后面,即对象遮挡了手,就无法辨别手势是什么动作。
确定用户的手在对象前面后,就可以分析用户的操作手势是什么了,不同的操作手势对应不同的动作。例如,如果用户的两只手指分别沿两个相反的方向移动,则说明此时用户可能需要将对象进行放大;如果用户的手指双击对象,说明用户可能想放大对象,或者,可能想对该对象添加评论等,则此时可以根据双击操作对应的功能来对对象进行操作。当然了,可以根据不同的操作手势执行不同的动作,例如,新建、编辑、发送、删除、拖拽、放大、缩小、选择等操作,该操作的设定可参考在使用鼠标和键盘进行输入时的习惯来操作,以更好的方便用户快速适应AR头戴设备,此处不再赘述。
在用户通过AR头戴设备操作完对象后,需要将操作信息发送至与AR头戴设备交互的云端服务器。如果用户操作信息是针对商品的购买,则云端服务器可以将该信息发送至购买商品所在网站对应的服务器,如果用户操作信息是针对某人或作品的数字标签编辑(评述、讨论等),则在收到操作信息后,需要将操作信息发送至所有连接至该云端服务器的其他AR头戴设备,这样,其他AR头戴设备都可以呈现该数字标签,实现弹幕效果。在将数字标签发送至其他AR头戴设备时,可以设置各种呈现方式,例如,弹幕3D环绕对象,或者,弹幕淡入淡出等。
本发明实施例通过摄像头获取AR场景中的对象,并度该对象的可交互性进行分析,在对象为可交互对象的情况下,根据用户的操作手势来对对象执行一些交互动作,该过程中不需要引用类似键盘或鼠标等的外接设备,只需要用户手部直接操作即可,摄像头捕捉用户的操作手势,就可以根据该操作手势来对对象执行相应的操作,且云端服务器在收到用户操作的数字标签后,可以将该数字标签发送至其他AR头戴设备的用户,服务范围广泛,解决了现有技术中在用户使用AR头戴设备时,互联网观众需要借助外接的键盘、鼠标等设备进行输入,操作复杂的问题;也解决了输入数据收集后投射至该用户的AR头戴设备屏幕,此操作效果仅为一个人服务,服务范围狭隘的问题。
本发明第四实施例提出一种AR场景的交互方法,该交互过程涉及到AR头戴设备,对于AR头戴设备,其可以是头盔形式的,也可以是眼镜形式的,当然,也可以是眼罩形式等等。
上述的AR场景的交互方法的流程如图6所示,包括步骤S602至S606:
S602,AR头戴设备通过摄像头获取AR场景中的对象;
S604,AR头戴设备将对象与预设特征数据库中的特征值进行匹配,以确定对象是否为可交互对象;
S606,在对象为可交互对象的情况下,AR头戴设备根据用户的操作手势对对象执行预定的交互动作。
由于AR头戴设备通常都具有光学摄像头和红外摄像头,光学摄像头是用于对日常景物进行拍照,而红外摄像头由于其利用了红外线的特点,能够穿入人体组织,这样,就可以增强图像捕捉能力,尤其是夜间图像的捕捉能力。因此,通过AR头戴设备可以获取到AR场景的交互方法和用户操作手势,并将获取的图像传输至AR头戴设备中的处理器(CPU、MCU、GPU等),由处理器进行后续处理。
由于摄像头获取到的对象可以是人、商品、展品等,因此,处理器运行时,需要运行图像识别算法,对演员、商品、展品等特定的人或事物的特征值与预设特征数据库中的特征值进行识别,由于预设特征数据库可能在云端服务器或本地AR头戴设备中,所以获取到的对象可以和云端服务器或AR头戴设备本地存储的图像特征值进行比对。确定预设特征数据库中存在与对象达到预设匹配度的特征值的对象为可交互对象。
其中,预设特征数据库中的特征值就是对象的一种相关映射,例如,通过摄像头捕捉到一瓶药,则可以将该药瓶与预设特征数据库中的类似图片进行匹配,以寻找到相似的图片。在与类似图片进行匹配时,可以先按照一定的相似度寻找类似图片,例如,寻找相似度在80%以上的图片。当然,也可以通过现有技术扫码形式来获取对象信息,例如,通过摄像头扫描药瓶上的二维码来获取对象信息,将获取到的对象信息和预设特征数据库中的对象信息进行匹配,来确定该药是否为可购买或可评论等。
在对象为可交互对象的情况下,需要进一步识别用户的手势操作是什么操作,才能够根据该手势操作执行对应的动作,因此,在真正进行交互之前,还需要对用户的操作手势进行识别。
在AR头戴设备根据用户的操作手势对对象执行预定的交互动作之前,还可以从云端服务器获取对象的可交互操作的类型,其中,类型至少包括以下之一:购买交互,数字标签交互。在确定对象的可交互操作的类型后,可以将该类型呈现给用户,用户就可以知道可以进行哪些交互操作了。
在根据用户的操作手势对对象执行预定的交互动作时,AR头戴设备判断操作手势是否对对象有遮挡;在操作手势对对象有遮挡的情况下,说明手在对象之前,各种操作都是可以实现的,则AR头戴设备将操作手势与预设操作数据库中的操作手势进行匹配,以确定操作手势对应的操作内容,其中,操作内容至少包括以下之一:新建、编辑、发送、删除、拖拽、放大、缩小、选择;随后,AR头戴设备根据操作内容对对象进行操作。如果操作手势没有对对象有任何遮挡,则无法确定是对哪个对象进行的操作,各种操作都是无法实现的。
在根据操作内容对对象进行操作之后,需要将操作信息发送至与AR头戴设备交互的云端服务器。用户点击发送后,则操作信息直接通过无线网络发送至云端服务器进行存储,例如,如果是添加了数字标签(弹幕),则云端服务器进行存储,随后,云端服务器对显示在所有用户AR头戴设备的内容进行一次更新,从而达到所有连接服务器的AR头戴设备终端用户均可实时观看该条弹幕的效果。
如果用户操作信息是针对商品的购买,则云端服务器可以将该信息发送至购买商品所在网站对应的服务器,如果用户操作信息是针对某人或作品的数字标签编辑(评述、讨论等),则在收到操作信息后,需要将操作信息发送至所有连接至该云端服务器的其他AR头戴设备,这样,其他AR头戴设备都可以呈现该数字标签,实现弹幕效果。在将数字标签发送至其他AR头戴设备时,可以设置各种呈现方式,例如,弹幕3D环绕对象,或者,弹幕淡入淡出等。
弹幕3D环绕对象或弹幕淡入淡出等方式都是现有技术在电脑屏幕上实现过的呈现方式,下面对该过程进行简单说明。
对于弹幕3D环绕对象,在实现AR场景中可交互对象的识别成功后,对可交互对象和背景进行分割,实现前景、背景分离;分离成功后,在前景对象的周边添加数字标签(也就是具有弹幕形式的标签,即弹幕),播放数字标签环绕可交互对象的动画,当数字标签运行至对象的正前方时,二者重叠部分显示效果为数字标签内容覆盖可交互对象的像素;当数字标签运行至对象的正后方时,二者重叠部分显示效果为可交互对象的像素覆盖数字标签,从而达到3D环绕的显示效果。
对于弹幕淡入淡出,是指数字标签从可交互对象的上方到下方、左方到右方、前方到后方弹出运行的过程中,运行轨迹必须遵循近大远小、左右视差的透视原则,在AR头戴设备的左右屏幕上投射到不同的像素点坐标,从而达到左右眼的立体观看效果;还有淡入淡出,是指运行的最初和最后两个阶段,遵循着弹幕的透明度从100到0再从0到100的线性或非线性变化,而非突然出现,使得过渡效果更加平滑,而不会突然出现惊吓到用户。
本发明实施例的大众用户,可通过手势交互等方式,很方便地直接在AR场景中对弹幕内容进行新增、编辑和发送,可以让更多的用户通过更方便的方式和AR场景中的对象进行交互,也可以更方便地和更多的具有共同喜好的用户进行交流,普通用户可以直接通过AR头戴设备上的光学摄像头、红外摄像头进行手势识别进行交互,从而无需额外增加输入设备(键盘、鼠标、触摸屏等),直接在AR场景中就能对展示的对象进行评价,交互更为人性化,也更为方便。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种增强现实技术AR头戴设备,其特征在于,包括:
获取模块,用于通过摄像头获取增强现实技术AR场景中的对象;
匹配模块,用于将所述对象与预设特征数据库中的特征值进行匹配,以确定所述对象是否为可交互对象;
执行模块,用于在所述对象为可交互对象的情况下,根据用户的操作手势对所述对象执行预定的交互动作。
2.如权利要求1所述的AR头戴设备,其特征在于,所述匹配模块包括:
特征匹配单元,用于判断所述预设特征数据库中是否存在与所述对象达到预设匹配度的特征值;
确定单元,用于在所述预设特征数据库中存在与所述对象达到预设匹配度的特征值时,确定所述对象为可交互对象。
3.如权利要求1所述的AR头戴设备,其特征在于,所述执行模块包括:
判断单元,用于判断所述操作手势是否对所述对象有遮挡;
操作匹配单元,用于在所述操作手势对所述对象有遮挡的情况下,将所述操作手势与预设操作数据库中的操作手势进行匹配,以确定所述操作手势对应的操作内容,其中,所述操作内容至少包括以下之一:新建、编辑、发送、删除、拖拽、放大、缩小、选择;
执行单元,用于根据所述操作内容对所述对象进行操作。
4.如权利要求1至3中任一项所述的AR头戴设备,其特征在于,还包括:
所述获取模块,还用于根据用户的操作手势对所述对象执行预定的交互动作之前,从云端服务器获取所述对象的可交互操作的类型,其中,所述类型至少包括以下之一:购买交互,数字标签交互。
5.一种AR交互***,其特征在于,包括:
云端服务器和权利要求1至4中任一项所述的AR头戴设备;
所述云端服务器,与连接至所述云端服务器的所有AR头戴设备交互,并在接收到某一AR头戴设备操作完成的数字标签的情况下,在下一个标签更新时间到来时,将所述数字标签推送至所述所有AR头戴设备。
6.一种AR场景的交互方法,其特征在于,所述方法包括步骤:
AR头戴设备通过摄像头获取增强现实技术AR场景中的对象;
所述AR头戴设备将所述对象与预设特征数据库中的特征值进行匹配,以确定所述对象是否为可交互对象;
在所述对象为可交互对象的情况下,所述AR头戴设备根据用户的操作手势对所述对象执行预定的交互动作。
7.如权利要求6所述的AR场景的交互方法,其特征在于,所述AR头戴设备将所述对象与预设特征数据库中的特征值进行匹配,以确定所述对象是否为可交互对象的步骤,包括:
所述AR头戴设备判断所述预设特征数据库中是否存在与所述对象达到预设匹配度的特征值;
在所述预设特征数据库中存在与所述对象达到预设匹配度的特征值时,所述AR头戴设备确定所述对象为可交互对象。
8.如权利要求6所述的AR场景的交互方法,其特征在于,所述AR头戴设备根据用户的操作手势对所述对象执行预定的交互动作的步骤,包括:
所述AR头戴设备判断所述操作手势是否对所述对象有遮挡;
在所述操作手势对所述对象有遮挡的情况下,所述AR头戴设备将所述操作手势与预设操作数据库中的操作手势进行匹配,以确定所述操作手势对应的操作内容,其中,所述操作内容至少包括以下之一:新建、编辑、发送、删除、拖拽、放大、缩小、选择;
所述AR头戴设备根据所述操作内容对所述对象进行操作。
9.如权利要求6至8中任一项所述的AR场景的交互方法,其特征在于,所述AR头戴设备根据用户的操作手势对所述对象执行预定的交互动作的步骤之前,还包括:
所述AR头戴设备从云端服务器获取所述对象的可交互操作的类型,其中,所述类型至少包括以下之一:购买交互,数字标签交互。
10.如权利要求9所述的AR场景的交互方法,其特征在于,在可交互操作的类型为数字标签交互的情况下,根据所述操作内容对所述对象进行操作的步骤之后,还包括:
所述云端服务器接收AR头戴设备操作完成的数字标签;
所述云端服务器在下一个标签更新时间到来时,将接收到的所述数字标签推送至与所述云端服务器连接的所有AR头戴设备。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610489453.4A CN106155311A (zh) | 2016-06-28 | 2016-06-28 | Ar头戴设备、ar交互***及ar场景的交互方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610489453.4A CN106155311A (zh) | 2016-06-28 | 2016-06-28 | Ar头戴设备、ar交互***及ar场景的交互方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106155311A true CN106155311A (zh) | 2016-11-23 |
Family
ID=57350129
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610489453.4A Pending CN106155311A (zh) | 2016-06-28 | 2016-06-28 | Ar头戴设备、ar交互***及ar场景的交互方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106155311A (zh) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106683201A (zh) * | 2016-12-23 | 2017-05-17 | 深圳市豆娱科技有限公司 | 一种基于三维虚拟现实的场景编辑方法和装置 |
CN106740581A (zh) * | 2017-01-03 | 2017-05-31 | 青岛海信移动通信技术股份有限公司 | 一种车载设备的控制方法、ar装置及ar*** |
CN106951073A (zh) * | 2017-03-08 | 2017-07-14 | 深圳市瑞尔时代科技有限公司 | 一种基于vr技术平台的三维实体场景预演布局*** |
CN107197339A (zh) * | 2017-04-10 | 2017-09-22 | 北京小鸟看看科技有限公司 | 影片弹幕的显示控制方法、装置及头戴式显示设备 |
CN107300972A (zh) * | 2017-06-15 | 2017-10-27 | 北京小鸟看看科技有限公司 | 在头戴显示设备中的评论的方法、装置和头戴显示设备 |
CN107635057A (zh) * | 2017-07-31 | 2018-01-26 | 努比亚技术有限公司 | 一种虚拟现实终端控制方法、终端和计算机可读存储介质 |
WO2018152685A1 (en) * | 2017-02-22 | 2018-08-30 | Tencent Technology (Shenzhen) Company Limited | Image processing in a vr system |
CN109068125A (zh) * | 2018-07-30 | 2018-12-21 | 上海闻泰电子科技有限公司 | Ar*** |
CN109564706A (zh) * | 2016-12-01 | 2019-04-02 | 英特吉姆股份有限公司 | 基于智能交互式增强现实的用户交互平台 |
WO2019114092A1 (zh) * | 2017-12-15 | 2019-06-20 | 深圳梦境视觉智能科技有限公司 | 图像增强现实的方法、装置、增强现实显示设备及终端 |
CN110100199A (zh) * | 2017-01-13 | 2019-08-06 | 努诺·安图内斯 | 采集、配准和多媒体管理的***和方法 |
CN110249291A (zh) * | 2017-02-01 | 2019-09-17 | Pcms控股公司 | 用于在预捕获环境中的增强现实内容递送的***和方法 |
CN111142675A (zh) * | 2019-12-31 | 2020-05-12 | 维沃移动通信有限公司 | 输入方法及头戴式电子设备 |
WO2020143443A1 (zh) * | 2019-01-09 | 2020-07-16 | 北京京东尚科信息技术有限公司 | 评价界面进入方法及装置 |
CN111476911A (zh) * | 2020-04-08 | 2020-07-31 | Oppo广东移动通信有限公司 | 虚拟影像实现方法、装置、存储介质与终端设备 |
CN111580655A (zh) * | 2020-05-08 | 2020-08-25 | 维沃移动通信有限公司 | 信息处理方法、装置和电子设备 |
CN112987929A (zh) * | 2021-03-16 | 2021-06-18 | 南京新知艺测科技有限公司 | 一种基于劳动技能教材的ar视觉场景学习方法及*** |
US20220319520A1 (en) * | 2019-06-03 | 2022-10-06 | Tsinghua University | Voice interaction wakeup electronic device, method and medium based on mouth-covering action recognition |
TWI782211B (zh) * | 2018-08-02 | 2022-11-01 | 開曼群島商創新先進技術有限公司 | 人機互動方法和裝置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103226787A (zh) * | 2013-05-17 | 2013-07-31 | 王琼 | 具有现实增强技术的移动电子设备及其销售领域应用方法 |
CN104063039A (zh) * | 2013-03-18 | 2014-09-24 | 朱慧灵 | 一种穿戴式计算机智能终端的人机交互方法 |
CN104615237A (zh) * | 2013-11-05 | 2015-05-13 | 精工爱普生株式会社 | 图像显示***、控制其的方法及头部佩戴型显示装置 |
CN105045375A (zh) * | 2014-05-01 | 2015-11-11 | 精工爱普生株式会社 | 头部佩戴型显示装置、其控制方法、控制***及计算机程序 |
CN105190477A (zh) * | 2013-03-21 | 2015-12-23 | 索尼公司 | 用于在增强现实环境中的用户交互的头戴式显示装置 |
CN105487673A (zh) * | 2016-01-04 | 2016-04-13 | 京东方科技集团股份有限公司 | 一种人机交互***、方法及装置 |
-
2016
- 2016-06-28 CN CN201610489453.4A patent/CN106155311A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104063039A (zh) * | 2013-03-18 | 2014-09-24 | 朱慧灵 | 一种穿戴式计算机智能终端的人机交互方法 |
CN105190477A (zh) * | 2013-03-21 | 2015-12-23 | 索尼公司 | 用于在增强现实环境中的用户交互的头戴式显示装置 |
CN103226787A (zh) * | 2013-05-17 | 2013-07-31 | 王琼 | 具有现实增强技术的移动电子设备及其销售领域应用方法 |
CN104615237A (zh) * | 2013-11-05 | 2015-05-13 | 精工爱普生株式会社 | 图像显示***、控制其的方法及头部佩戴型显示装置 |
CN105045375A (zh) * | 2014-05-01 | 2015-11-11 | 精工爱普生株式会社 | 头部佩戴型显示装置、其控制方法、控制***及计算机程序 |
CN105487673A (zh) * | 2016-01-04 | 2016-04-13 | 京东方科技集团股份有限公司 | 一种人机交互***、方法及装置 |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109564706A (zh) * | 2016-12-01 | 2019-04-02 | 英特吉姆股份有限公司 | 基于智能交互式增强现实的用户交互平台 |
CN109564706B (zh) * | 2016-12-01 | 2023-03-10 | 英特吉姆股份有限公司 | 基于智能交互式增强现实的用户交互平台 |
CN106683201A (zh) * | 2016-12-23 | 2017-05-17 | 深圳市豆娱科技有限公司 | 一种基于三维虚拟现实的场景编辑方法和装置 |
CN106740581A (zh) * | 2017-01-03 | 2017-05-31 | 青岛海信移动通信技术股份有限公司 | 一种车载设备的控制方法、ar装置及ar*** |
CN110100199B (zh) * | 2017-01-13 | 2022-06-14 | 努诺·安图内斯 | 采集、配准和多媒体管理的***和方法 |
CN110100199A (zh) * | 2017-01-13 | 2019-08-06 | 努诺·安图内斯 | 采集、配准和多媒体管理的***和方法 |
CN110249291A (zh) * | 2017-02-01 | 2019-09-17 | Pcms控股公司 | 用于在预捕获环境中的增强现实内容递送的***和方法 |
WO2018152685A1 (en) * | 2017-02-22 | 2018-08-30 | Tencent Technology (Shenzhen) Company Limited | Image processing in a vr system |
US11003707B2 (en) | 2017-02-22 | 2021-05-11 | Tencent Technology (Shenzhen) Company Limited | Image processing in a virtual reality (VR) system |
CN106951073A (zh) * | 2017-03-08 | 2017-07-14 | 深圳市瑞尔时代科技有限公司 | 一种基于vr技术平台的三维实体场景预演布局*** |
CN107197339B (zh) * | 2017-04-10 | 2019-12-31 | 北京小鸟看看科技有限公司 | 影片弹幕的显示控制方法、装置及头戴式显示设备 |
CN107197339A (zh) * | 2017-04-10 | 2017-09-22 | 北京小鸟看看科技有限公司 | 影片弹幕的显示控制方法、装置及头戴式显示设备 |
CN107300972A (zh) * | 2017-06-15 | 2017-10-27 | 北京小鸟看看科技有限公司 | 在头戴显示设备中的评论的方法、装置和头戴显示设备 |
CN107635057A (zh) * | 2017-07-31 | 2018-01-26 | 努比亚技术有限公司 | 一种虚拟现实终端控制方法、终端和计算机可读存储介质 |
WO2019114092A1 (zh) * | 2017-12-15 | 2019-06-20 | 深圳梦境视觉智能科技有限公司 | 图像增强现实的方法、装置、增强现实显示设备及终端 |
CN109934929A (zh) * | 2017-12-15 | 2019-06-25 | 深圳梦境视觉智能科技有限公司 | 图像增强现实的方法、装置、增强现实显示设备及终端 |
CN109068125A (zh) * | 2018-07-30 | 2018-12-21 | 上海闻泰电子科技有限公司 | Ar*** |
TWI782211B (zh) * | 2018-08-02 | 2022-11-01 | 開曼群島商創新先進技術有限公司 | 人機互動方法和裝置 |
CN111429148A (zh) * | 2019-01-09 | 2020-07-17 | 北京京东尚科信息技术有限公司 | 评价界面进入方法及装置 |
WO2020143443A1 (zh) * | 2019-01-09 | 2020-07-16 | 北京京东尚科信息技术有限公司 | 评价界面进入方法及装置 |
CN111429148B (zh) * | 2019-01-09 | 2024-05-21 | 北京京东尚科信息技术有限公司 | 评价界面进入方法及装置 |
US20220319520A1 (en) * | 2019-06-03 | 2022-10-06 | Tsinghua University | Voice interaction wakeup electronic device, method and medium based on mouth-covering action recognition |
CN111142675A (zh) * | 2019-12-31 | 2020-05-12 | 维沃移动通信有限公司 | 输入方法及头戴式电子设备 |
CN111476911A (zh) * | 2020-04-08 | 2020-07-31 | Oppo广东移动通信有限公司 | 虚拟影像实现方法、装置、存储介质与终端设备 |
CN111476911B (zh) * | 2020-04-08 | 2023-07-25 | Oppo广东移动通信有限公司 | 虚拟影像实现方法、装置、存储介质与终端设备 |
CN111580655A (zh) * | 2020-05-08 | 2020-08-25 | 维沃移动通信有限公司 | 信息处理方法、装置和电子设备 |
CN112987929A (zh) * | 2021-03-16 | 2021-06-18 | 南京新知艺测科技有限公司 | 一种基于劳动技能教材的ar视觉场景学习方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106155311A (zh) | Ar头戴设备、ar交互***及ar场景的交互方法 | |
CN106453924B (zh) | 一种图像拍摄方法和装置 | |
CN104750420B (zh) | 截屏方法及装置 | |
CN105404484B (zh) | 终端分屏装置及方法 | |
CN105224925A (zh) | 视频处理装置、方法及移动终端 | |
CN106776774A (zh) | 移动终端选取图片装置和方法 | |
CN106657650A (zh) | 一种***表情推荐方法、装置及终端 | |
KR20140136595A (ko) | 이동 단말기 및 이의 제어방법 | |
CN106201252A (zh) | 一种移动终端的地图显示装置和方法 | |
CN106293069A (zh) | 内容自动分享***及方法 | |
CN104301709A (zh) | 眼镜型便携式设备及其信息投影面搜索方法 | |
CN106504050A (zh) | 一种信息比对装置及方法 | |
CN106097284A (zh) | 一种夜景图像的处理方法和移动终端 | |
CN106850941A (zh) | 照片拍摄方法及装置 | |
CN106843468A (zh) | 一种终端以及vr场景中的人机交互方法 | |
CN105472241A (zh) | 图像拼接方法及移动终端 | |
CN106534500A (zh) | 一种基于人物属性的个性化服务***及方法 | |
CN107018334A (zh) | 一种基于双摄像头的应用程序处理方法和装置 | |
CN106231095A (zh) | 图片合成装置及方法 | |
CN105278860A (zh) | 移动终端图片上传装置和方法 | |
CN106371682A (zh) | 一种基于接近传感器的手势识别***及其方法 | |
CN106373110A (zh) | 一种图像融合的方法及装置 | |
CN106130981A (zh) | 增强现实设备的数字标签自定义装置及方法 | |
CN106383707A (zh) | 一种图片的显示方法及*** | |
CN106250130A (zh) | 一种移动终端以及响应按键操作的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20161123 |
|
RJ01 | Rejection of invention patent application after publication |