CN110869983A - 模拟三维(3d)环境中的交互式输入控制 - Google Patents

模拟三维(3d)环境中的交互式输入控制 Download PDF

Info

Publication number
CN110869983A
CN110869983A CN201880044988.8A CN201880044988A CN110869983A CN 110869983 A CN110869983 A CN 110869983A CN 201880044988 A CN201880044988 A CN 201880044988A CN 110869983 A CN110869983 A CN 110869983A
Authority
CN
China
Prior art keywords
environment
path
movement
determining
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201880044988.8A
Other languages
English (en)
Other versions
CN110869983B (zh
Inventor
J.比奇
H.迟
J.张
M.加德齐科夫斯基
D.博伊尔
J.考尼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of CN110869983A publication Critical patent/CN110869983A/zh
Application granted granted Critical
Publication of CN110869983B publication Critical patent/CN110869983B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Abstract

一种虚拟现实(VR)***支持改进的交互式控制过程/服务。这些交互式控制过程/服务包括检测与虚拟现实(VR)环境相关联的控制器的移动、基于所述移动来确定旋转角度、确定与所述移动相关联的力大小、确定所述VR环境中对应于所述旋转角度和所述力大小的路径、以及在所述VR环境中投影出所述路径。

Description

模拟三维(3D)环境中的交互式输入控制
技术领域
本公开总体上涉及模拟或虚拟现实环境,并且更特定地涉及其中的交互式输入控制。
背景技术
例如,由改进的处理能力和速度、更加有效的软件渲染技术、消费者便利性等驱动的技术进步,已经支持了开发和设计模拟或三维(3D)虚拟现实(VR)环境的蓬勃发展的运动。支持此类VR环境的VR***通常包括诸如头戴式套件、护目镜、手持式或可穿戴装置等的硬件。在操作上,此类硬件持续地跟踪用户移动,更新用户位置、取向等,并且在VR环境中接收来自用户的交互式输入。
尽管某些VR***可以包括复杂且通常昂贵的硬件和其他装备(诸如,全向行动平台),以用于跟踪现实世界的用户移动并将其转换到VR环境中,但是普通用户可能没有必要的资本(或物理空间)来支持此类复杂且通常昂贵的装备。因此,在VR环境中为用户设计和创建直观的交互式控制时,会出现某些挑战。因此,需要能够通过简单的VR装备操作的改进的交互式过程和技术。
发明内容
在一个示例性实施方案中,本公开提供一种交互式控制过程/服务。可以作为包括检测与虚拟现实(VR)环境相关联的控制器的移动的多个步骤的方法来执行交互式控制过程/服务。所述方法还包括基于所述移动来确定旋转角度、力大小(例如,加速度)等的步骤。例如,所述移动可由矢量映射或表示,所述矢量各自具有方向和大小。所述方法还包括用于确定VR环境中对应于多个矢量(例如,一个或多个旋转角度、力大小等)的路径以及通过显示例如表示VR环境中的路径的图形元素而在VR环境中投影出所述路径的步骤。在一些方面中,所述方法还可以包括确定VR环境中的对象何时与路径的一部分相交(或非常接近)的相交或碰撞过程。在这些方面中,所述方法还可以包括修改或调整路径以便选择此类对象、显示菜单选项、沿着路径检索对象、使用户沿着路径朝向对象移动等的步骤。
在另一个实施方案中,一种虚拟现实(VR)***采用上面讨论的交互式控制过程/服务。例如,VR***包括:网络接口,其用于在通信网络中进行通信;处理器,其耦合到网络接口并适于执行一个或多个过程;以及存储器,其被配置为存储可由处理器执行的过程。所述过程在由处理器执行时可操作以检测与虚拟现实(VR)环境相关联的控制器的移动,并且基于所述移动来确定旋转角度、力大小(例如,加速度)等。VR***还确定VR环境中对应于所述移动的路径,并且在VR环境中投影出所述路径(例如,显示表示所述路径的图形对象/元素等)。
在又一个实施方案中,一种有形的非暂时性计算机可读介质包括诸如示例***互式控制过程的软件或指令。软件/指令由处理器执行,这使得处理器检测与虚拟现实(VR)环境相关联的控制器的移动,并且基于所述移动来确定旋转角度、力大小(例如,加速度)等。处理器还确定VR环境中对应于移动的路径,并且在VR环境中投影出所述路径(例如,显示表示所述路径的图形对象/元素等)。
附图说明
通过结合附图参考以下描述,可以更好地理解本文中的实施方案,在附图中,相似的附图标记指示相同元件或功能上相似的元件。应理解,这些附图仅描绘了本公开的示例性实施方案,并且因此不应被认为是对其范围的限制,通过使用附图,以另外的特征性和细节来描述和解释本文的原理,在附图中:
图1示出了示例虚拟现实(VR)环境的示意图;
图2示出了示例VR装置/节点的框图;
图3示出了从用户的第三人视角观察的VR环境的框图;
图4A示出了另一个VR环境的第三人视点,示出了支持与VR环境的用户交互以及在VR环境内的用户交互的控制器的移动;
图4B示出了如显示给用户的图4A的VR环境的第三人视点,示出了由图4A中所示的移动产生的路径;
图5示出了用户在VR环境中的第一人视点,示出了图4B中所示的路径;
图6示出了图3中的VR环境的第一人视点,示出了从用户到VR环境中的位置的路径;
图7示出了图6的VR环境的第一人视点,示出了与对象相交的路径和对象的选择;
图8A示出了另一个VR环境的第三人视点,示出了两个控制器的移动,所述两个控制器各自支持与VR环境的用户交互以及在VR环境内的用户交互;
图8B示出了图8A的VR环境的第三人视点,示出了用户对每个控制器的移动和相应的结果路径;
图9A示出了图8B的VR环境的第三人视点,示出了在锚点处终止的每个路径以及相对于每个锚点的VR交互;
图9B示出了图8B的VR环境的第三人视点,示出了在定位在VR环境中的墙面上的锚点处终止的每个路径以及相对于每个锚点的任选交互;
图10示出了另一个VR环境的第三人视点,示出了从两个控制器的移动导出的选择路径;
图11A和图11B示出了图10的VR环境的第三人视点,示出了由第一控制器的移动产生的初始路径和由第二控制器的移动产生的对初始路径的调整;
图12A和图12B示出了图10的VR环境的第一人视点,并且相应地对应于图11A和图11B所示的第三人视点;以及
图13示出了由VR***采用的交互式控制过程的示例简化程序。
具体实施方式
下面详细讨论本公开的各种实施方案。尽管讨论了特定实现方式,但是应理解,这仅是为了说明的目的而进行的。相关领域的技术人员将认识到,在不脱离本公开的精神和范围的情况下,可以使用其他部件和配置。
如本文所讨论的,本主题公开涉及特别适合于虚拟现实(VR)环境的交互式控制。这些交互式控制通过简单的控制器而采取,而不需要复杂且通常昂贵的装备。例如,交互式控制可以包括可以通过简单的控制器、头戴式套件和/或VR控制台采取的交互式控制过程/服务。例如,此类交互式控制过程可以检测与虚拟现实(VR)环境相关联的控制器的移动,并且包括基于所述移动来确定旋转角度、力大小(例如,加速度)等的步骤。例如,交互式控制过程可以将移动的各部分映射到或分配给坐标系中的矢量,并且确定VR环境中对应于所述矢量的路径(例如,基于矢量/矢量元素的平均、并集、差、叠加或其他组合)。如下面更详细地讨论的,所述路径可以用作使用户在3D环境中移动的导引和/或用作选择或检索对象的选择工具。
现在参考附图,图1示出了虚拟现实(VR)环境100的示意图。VR环境100包括各种装置、部件、子部件、硬件/软件、接口等,所述各种装置、部件、子部件、硬件/软件、接口等共同操作形成VR***,所述VR***向用户105提供沉浸式和交互式模拟体验。
如所示,VR环境100包括诸如控制台110、一个或多个控制器120和头戴式套件125的装备。如本领域技术人员所了解的,控制台110表示集中式硬件/软件,其与控制器120和/或头戴式套件125通信,并且通过通信网络130(例如,因特网)与各种其他装置、服务器、数据库等通信。
通信网络130表示通过网络接口/链路/段/等互连并且可操作以交换数据(诸如数据包140)并向/从终端装置/节点(例如,控制台110、控制器120和/或头戴式套件125)传输数据的装置/节点的网络。
数据包140包括网络业务/消息,所述网络业务/消息在适当情况下使用诸如某些已知有线协议、无线协议(例如,IEEE Std.802.15.4、WiFi、
Figure BDA0002355084110000051
等)、PLC协议或其他共享媒体协议等预定义网络通信协议通过通信网络130而在装置之间进行交换。
控制器120通过网络130与控制台110无线通信,或者(在一些实施方案中)控制器120可以通过另一个网络(未示出)耦合到控制台110。控制器120促进与VR环境100的用户交互以及在VR环境100内的用户交互,并且可操作以例如检测、跟踪或以其他方式监测移动和生物特征信息、与头戴式套件125和控制台110交流数据信号,以及向用户105提供反馈(例如,触觉反馈、听觉反馈等)。以此方式,控制器120可以包括任意数量的传感器、陀螺仪、无线电、处理器、触摸检测器、发射器、接收器、反馈电路等。
头戴式套件125类似于控制器120,与控制台110无线通信。头戴式套件125向用户105显示或投影形成模拟VR环境的模拟图形元素,跟踪眼球的移动,并且测量来自用户105的生物特征数据。
相对于上面讨论的装置,应明了,某些装置可以被调适为包括(或不包括)某些功能,并且所示的部件是为了讨论而非限制的目的而示出的。如所讨论的,控制台110、控制器120和头戴式套件125协作以向用户105提供沉浸式和交互式VR环境。
图2示出了表示图1中所示的一个或多个装置(例如,控制台110、控制器120、头戴式套件125等)的示例装置200的框图。装置200包括通过***总线250互连的一个或多个网络接口210、输入接口215、处理器220和存储器240。
网络接口210包含用于通过诸如通信网络130之类的网络在装置之间传送数据的机械、电气和信令电路。输入接口215包括接收用户命令并检测移动或手势的硬件/软件,并且还可以被配置为提供用户反馈(例如,触觉反馈、视觉反馈、音频反馈等)。例如,输入接口215可以包括开关、按钮、加速度计、传感器、处理器、无线电、显示元件等。存储器240包括可由处理器220寻址的多个存储位置,以用于存储与本文描述的实施方案相关联的软件程序和数据结构。
处理器220可以包括适于执行软件程序和操纵数据结构245的必要元件或逻辑。操作***242(其各部分通常驻存在存储器240中并由处理器220执行)尤其通过调用支持在装置上执行的软件过程和/或服务的操作而在功能上对装置进行组织。这些软件过程和/或服务可以包括说明性的“交互式控制”过程/服务244。注意,尽管过程/服务244被示出在集中式存储器240中,但是过程/服务244可以被配置为在分布式网络中操作。
对于本领域技术人员将显而易见的是,可以使用包括各种计算机可读介质的其他处理器和存储器类型来存储和执行与本文描述的技术有关的程序指令。此外,尽管所述描述示出了各种过程,但是可以明确地预期,各种过程均可以体现为被配置为根据本文的技术(例如,根据类似过程的功能)操作的模块。此外,尽管已经单独示出了所述过程,但是本领域技术人员将理解,所述过程可以是其他过程中的例程或模块。例如,处理器220可以包括一个或多个可编程处理器,例如微处理器或微控制器,或者固定逻辑处理器。在可编程处理器的情况下,任何相关联的存储器(例如,存储器240)可以是任何类型的有形处理器可读存储器(例如随机存取存储器、只读存储器等),所述有形处理器可读存储器编码有或存储有能够实现程序模块(例如上面编码有交互式控制过程244的模块)的指令。处理器220还可以包括固定逻辑处理装置(诸如专用集成电路(ASIC)或数字信号处理器),所述固定逻辑处理装置配置有固件,所述固件包括能够使处理器执行本文描述的功能的指令或逻辑。因此,程序模块可以被编码在一个或多个有形计算机可读存储介质中以供执行(诸如利用固定逻辑或可编程逻辑(例如由处理器执行的软件/计算机指令)来执行),并且任何处理器都可以是可编程处理器、可编程数字逻辑(诸如,现场可编程门阵列)或者包括固定数字逻辑的ASIC,或者它们的组合。一般而言,任何过程逻辑都可以体现在处理器或计算机可读介质中,所述处理器或计算机可读介质编码有供处理器执行的指令,所述指令当由处理器执行时可操作以致使处理器执行本文描述的功能。
图3示出了VR环境300的框图,特别是从用户105的第三人视角示出了模拟艺术画廊。如所提及的,用户105使用头戴式套件125和控制器120体验VR环境300并与之交互。然而,如上面所讨论的,当为VR环境(诸如VR环境300)设计直观的交互式控制时,尤其是当设计可由相对简单且便宜的控制器部件(这里是控制器120和/或头戴式套件125)操作的控制时,会出现某些挑战。因此,本公开的过程和技术包括改进的交互式控制,其特别适合于VR环境和此类相对简单且便宜的控制器部件。
图4A和图4B相应地示出了VR环境400的第三人视点,并且相应地示出了控制器120的移动以及由所述移动产生的路径。
图4A特别示出了控制器120在三维(3D)坐标系内从第一位置到第二位置的移动。控制器在第一位置和第二位置之间的移动包括由角度“α”指示的控制器取向或方向改变,以及由对应矢量的大小指示的加速度改变。关于对应矢量,控制器120的第一位置和第二位置是以包括相应方向和大小的矢量(即矢量120’和矢量120”)形式表示,其中大小表示在相应位置测量到的力。以此方式,控制器120监测和测量取向、位置、角动量、加速度等的改变,并且还进行或执行交互式控制过程/服务(例如,交互式控制过程244),如本文所描述的。
图4B特别示出了由控制器120从第一位置移动到第二位置而产生的路径440。路径440在用户105的当前位置处起始,遵循弧线(其由角度α随时间的改变来确定),在由锚点445(图形显示元素(“X”))指示的终端位置处结束,并且通过头戴式套件125被投影给用户105。路径440可以表示在VR环境中导引用户105的移动的行进路径,和/或路径440可以表示选择与其相交的对象的选择路径。
在操作中,控制器120检测从第一位置到第二位置的移动,基于所述移动来确定旋转角度(α),并且确定与移动和/或相应位置相关联的力大小(例如,加速力等)。控制器120还确定VR环境中对应于旋转角度和力大小的路径(这里,路径440),并且头戴式套件125将路径在VR环境中投影给用户105。尽管相对于特定装置/控制器描述了前述操作,但是应明了,装置的任何组合都可以执行相同或基本上相似的功能。
图5示出了从佩戴头戴式套件125的用户105的视角观察的VR环境400的第一人视点。这里,VR环境400用网格图案示出,所述网格图案表示覆盖边界平面或表面(例如,地面)的坐标系。
如所讨论的,控制器120从第一位置到第二位置的移动可以被映射到3D坐标系中,其中矢量表示每个位置处的相应方向和大小。3D坐标系还可以包括现实世界坐标系和/或VR环境坐标系。相对于现实世界坐标系,可能需要另外的处理来转换移动并计算由此产生的路径到VR环境坐标系中。
如这里所示,路径440由在3D图形“X”元素处终止的图形虚线表示,所述3D图形“X”元素表示锚点445,并且控制器120由3D图形控制器元素表示。总的来说,这些图形部件/元素示出了VR环境400内的用户105的示例性第一人视角。如所提及的,路径440部分地根据控制器取向的改变以及力(例如,加速度)的改变来计算。在一个实施方案中,路径440表示弯曲路径或弧线路径,并且可以通过类似于投掷(例如)鱼线的模拟投掷动作生成。如本领域技术人员所理解的,弯曲路径的距离和方向通过上述控制器取向/力的改变导出。值得注意的是,在一些实施方案中,投掷动作可以结合其他输入控制(例如,按钮按压/释放/等)来操作,以指示在环境400中生成路径440的用户意图。
图6示出了VR环境300的第一人视点,特别是从用户105的视角。这里,用户105将控制器120从第一位置移动到第二位置(如上面所讨论的),并且控制器120(和/或其他硬件部件)确定由头戴式套件125向用户105显示的结果路径(即路径440)。路径440表示VR环境300中的行进路径,所述行进路径导引用户105从当前位置到锚点445的移动。值得注意的是,在图6中,路径440使用户105移动得更靠近交互式对象605,即绘画。如本领域技术人员所理解的,用户105可以提供另外的输入以提示在VR环境300中沿着路径440的后续移动。如本领域技术人员所理解的,头戴式套件125可以为用户105将沿着路径的此类后续移动图形化地投影/制成动画。
图7示出了图6中的VR环境300的第一人视点,还示出了与交互式对象605相交的路径440。除了基于控制器120的移动来计算路径之外,交互式控制过程或技术(例如,交互式控制过程244)还可以并入有对象相交过程,所述对象相交过程检测VR环境中的路径的部分与对象之间的相交(或碰撞)。可选地(或另外地),相交可以包括模糊逻辑以检测近似相交/碰撞以及实际相交。这里,交互式控制过程确定路径440的部分与交互式对象605相交(或近似相交)。由于此类相交(或近似相交),因此路径440可以被修改以帮助用户105选择交互式对象605和/或调用另外的菜单选项(示例选项包括“添加”、“调整”、“全屏”、“缩放”、“裁剪”等)。另外,VR环境300还提供指示对交互式对象605的选择的选择元素或边界715。
这里,路径440表示选择交互式对象605的选择路径。选择路径可以在VR环境中导引用户和所选择的对象之间的移动,和/或选择路径可以将所选择的对象检索给用户(例如,将对象从其当前位置移动到用户的当前位置)。如本领域技术人员所理解的,用户105可以提供另外的输入以提示VR环境300中的用户和/或对象的后续移动。
图8A示出了另一个VR环境的第三人视点,示出了两个控制器的移动,所述两个控制器各自支持与VR环境的用户交互以及在VR环境内的用户交互;
图8A和图8B各自示出了VR环境800的第三人视点,其中图8A示出了两个控制器(控制器120和控制器820)在三维(3D)坐标系中的移动,并且图8B示出了由所述移动产生的相应路径。图8A和图8B中的控制器120的移动与上面讨论的图4A和图4B中所示的控制器120的移动相同。因此,下面关于图8A和图8B的讨论集中在第二控制器(控制器820)及其移动上。
图8A具体示出了控制器120从第一位置到第二位置的移动以及控制器820从相应的第一位置到第二位置的移动。每个控制器的相应移动包括由角度“α”(对于控制器120)或角度“β”(对于控制器820)指示的控制器取向或方向改变,以及由对应矢量指示的相应加速度改变。
关于对应矢量,除了对应于控制器120的矢量120’和120”之外,图8A还提供对应于控制器820的第一位置和第二位置并且示出方向和大小的矢量820’和820”。如上面所讨论的,大小表示在相应位置处测量到的力。
图8B特别示出了由每个控制器的相应移动产生的路径。具体而言,除了路径440(对应于控制器120)之外,图8B还示出了路径840,所述路径840在用户105的当前位置处起始,遵循弧线(其由角度β随时间的改变确定),在由锚点845(图形显示元素(“X”))指示的终端位置处结束,并且通过头戴式套件125被投影给用户105。类似于路径440,路径840可以表示在VR环境中导引用户105的移动的行进路径,和/或路径840可以表示选择与其相交的对象的选择路径。
在操作中,控制器120、820检测相应移动,基于所述移动确定旋转角度(α,β),并且确定与移动和/或相应位置相关联的力大小(例如,加速力等)。控制器120、820还确定VR环境中对应于相应的旋转角度和力大小的相应路径(路径440、840)。
图9A和图9B示出了图8B的VR环境的第三人视点,示出了在相应锚点处终止的每个路径以及对应的VR交互。特别地,图9A将路径440和路径840示出为与用户105和位于地面上的相应锚点445、845相交的直线,而图9B将路径440和路径840示出为与用户105和位于VR环境800中的墙面上的相应锚点445、845相交的直线。
如上面所讨论的,路径440、840可以表示在VR环境中导引用户105的移动的行进路径。尽管上面讨论了具有一个控制器和一个行进路径(以及对应的交互操作)的实施方案,但是这里,在多个路径(即路径440和路径840)之间存在支持进一步交互操作的协同作用。特别地,可以类比为用两根线来操作风筝,其中每个路径代表一根线(或一根线缆),而风筝由固定边界表面(图9A中的地面和图9B中的墙面)表示。另外,可以在终端或锚点445、845之间限定旋转轴线940a。在操作中,用户105可以控制自身相对于锚点(在地面上)的移动,并且将对应的拖拽或拉动动作/手势输入到控制器120、820中。由每个控制器检测到的拖拽或拉动动作相互协作并且可以使用户105沿着路径440、840/在路径440、840之间移动。另外,此类运动(和/或其他限定的运动)可以相对于VR环境800旋转或调整用户围绕轴线940a的取向。
图10示出了另一个VR环境的第三人视点,示出了从控制器120和控制器820的移动导出的选择路径1040。这里,选择路径1040可以表示路径440和路径840的叠加,其中两个路径的若干部分抵消,而其他部分聚合。可选地(或另外地),如本领域技术人员所理解的,选择路径1040还可以表示路径440和840的平均、差、并集或某一其他组合。此外,如上面所提及的,交互式控制过程(结合两个控制器采用)还可以并入有检测对象(交互式对象1005)与从两个控制器的移动导出的选择路径之间的相交(或近似相交的位置)的对象相交/碰撞过程。在一些实施方案中,类似于上面讨论的那些,选择路径1040可以表示在VR环境1000中终止于锚点1045处、用于导引用户105的移动的行进路径。
图11A和图11B示出了VR环境1000的第三人视点,示出了由控制器120(图11A)的移动产生的初始路径(路径440)和由控制器820(图11B)的移动产生的对初始路径的调整。总的来说,图11A和图11B示出了交互式控制过程的另外功能,其中用户105移动控制器120以生成路径440(上面更详细地讨论),并且移动控制器820以调整或微调路径440的各方面(例如,调整方向、大小、取向等)。例如,如所示,路径440在图11A中生成,并且位于距用户105初始距离处。用户105还移动和/或旋转图11B中的控制器820来调整路径440,例如,将锚点445移动得更靠近用户105的当前位置。
图12A和图12B相应地示出了图11A和图11B的第一人视点。这里,VR环境1000示出了书架上布置有许多书籍的图书馆。用户105移动控制器120(图12A)以生成路径440,所述路径在以“mo...”开头的书籍作者处/附近终止。用户105还移动控制器820(由侧箭头指示)来修改、调整或以其他方式移动路径440,使得路径440在以“ma...”开头的书籍作者处/附近终止。以此方式,一个控制器可用于生成行进/选择路径,而第二控制器可用于微调或以其他方式调整行进/选择路径。
图13示出了由VR***(或其部件)采用的交互式控制过程的示例简化程序1300。程序1300在步骤1305处开始并且继续到步骤1310和1315,其中如上面更详细描述的,VR***检测第一控制器(例如,控制器120)和第二控制器(例如,控制器820)的移动。在步骤1320处,VR***还针对每个移动确定相应的旋转角度、所施加的力大小、加速度等。基于前述确定,在步骤1325中,VR***将每个移动映射到三维(3D)坐标系中的一个或多个矢量。
在步骤1330中,VR***还确定VR环境的对应于一个或多个矢量(例如,旋转角度、力大小等)的路径。例如,如本领域技术人员所理解的,VR***可以基于对应于相应的旋转角度、力大小(力随时间的改变)等的矢量的平均、差、总和或其他组合来导出路径。
程序1300继续到步骤1335,如上面所讨论的,在步骤1335中,VR***检测VR环境中的路径的部分与对象之间的相交,并且选择所述对象。如所提及的,选择对象还可以致使对象被指示为选定的(例如,边界框),显示与对象相关联的菜单选项,检索或移动对象到用户的当前位置或使用户朝向对象移动。VR***还在VR环境中投影出(例如,使用头戴式套件125)路径,诸如示出路径440/830的附图。
程序1300随后在步骤1345处结束,但是在检测到第一控制器的移动的情况下,可以在步骤1310处再次开始。总的来说,程序1300中的步骤描述了特别适合于VR环境而不需要昂贵且通常复杂的装备的交互式控制过程和技术。应注意,程序1300内的某些步骤可以是任选的,并且此外,图13中所示的步骤仅是用于说明的示例。根据需要可以包括或不包括某些其他步骤。此外,尽管从特定装置或***的视角示出和执行了特定顺序的步骤,但是所述顺序仅是说明性的,并且可以在不脱离本文的实施方案的范围的情况下,利用所述步骤和/或任何数量的***、平台或装置的任何合适的布置。
因此,本文描述的技术提供在不需要昂贵且复杂的装备的情况下补充沉浸式模拟VR环境的交互式控制过程。这些交互式控制限定了任何用户都能快速且有效地掌握的简单直观的手势。
尽管已经示出和描述了用于VR环境的交互式控制过程的说明性实施方案,但是应理解,可以在本文的实施方案的精神和范围内做出各种其他调整和修改。例如,本文已经就某些***、平台、硬件、装置和模块示出和描述了实施方案和某些功能。然而,所述实施方案在其更广泛的意义上来说不限于此,并且实际上可以用于非VR环境中以及由本文所讨论的装置或部件的任何组合采用。
前面的描述是针对特定实施方案。然而,将显而易见的是,可以对所描述的实施方案进行其他变型和修改,以实现其优点中的一些或全部。例如,可以明确地设想,本文描述的部件和/或元件可以被实现为软件,所述软件被存储在有形(非暂时性)计算机可读介质、装置和存储器(例如,磁盘/CD/RAM/EEPROM/等)上、具有在计算机、硬件、固件或其组合上执行的程序指令。此外,可以使用存储在计算机可读介质中或以其他方式从计算机可读介质中可获得的计算机可执行指令来实现描述本文所描述的各种功能和技术的方法。此类指令可以包括例如致使或以其他方式配置通用计算机、专用计算机或专用处理装置来执行特定功能或功能组的指令和数据。使用的计算机资源的部分可以通过网络存取。例如,计算机可执行指令可以是二进制代码、诸如汇编语言之类的中间格式指令、固件或源代码。可以用于存储指令、使用的信息和/或在根据所描述的示例的方法期间创建的信息的计算机可读介质的示例包括磁盘或光盘、快闪存储器、具备非易失性存储器的USB装置、联网存储装置等。另外,实现根据这些公开的方法的装置可以包括硬件、固件和/或软件,并且可以采取各种形状因子中的任一种。此类形状因子的典型示例包括膝上型计算机、智能电话、小形状因子个人计算机、个人数字助理等。本文中所描述的功能还可以体现于***装置或插卡中。作为其他示例,此类功能也可以在电路板上在不同芯片当中或在单个装置中执行的不同过程当中实现。指令、用于传送此类指令的介质、用于执行此类指令的计算资源以及用于支持此类计算资源的其他结构都是用于提供这些公开中描述的功能的手段。因此,所述描述仅通过示例的方式进行,而不是以其他方式限制本文中的实施方案的范围。因此,所附权利要求的目的是覆盖落入本文的实施方案的真实精神和范围内的所有此类变化和修改。

Claims (18)

1.一种用于交互式控制的方法,所述方法包括:
检测与虚拟现实(VR)环境相关联的第一控制器的第一移动;
基于所述第一移动来确定旋转角度;
确定与所述第一移动相关联的力大小;
确定所述VR环境中对应于所述旋转角度和所述力大小的路径;
在所述VR环境中投影出所述路径;
检测与所述VR环境相关联的第二控制器的第二移动;以及
基于所述第二移动来调整所述路径。
2.如权利要求1所述的方法,其中所述第一控制器的所述第一移动包括从第一位置到第二位置的移动,并且其中确定所述旋转角度还包括:
将所述第一位置映射到三维(3D)坐标系中的第一矢量;
将所述第二位置映射到所述3D坐标系中的第二矢量;以及
基于所述第一矢量与所述第二矢量之间的差来确定所述旋转角度。
3.如权利要求2所述的方法,其中确定所述力大小是基于所述第一矢量与所述第二矢量之间的所述差。
4.如权利要求1所述的方法,其还包括通过与用户相关联的视角在所述VR环境中沿着所述路径的至少一部分将移动制成动画。
5.如权利要求1所述的方法,其中还包括在所述VR环境中选择与所述路径的至少一部分相交的对象。
6.如权利要求5所述的方法,其还包括在所述VR环境中使所述对象沿着所述路径朝向与用户相关联的视角的当前位置移动。
7.如权利要求5所述的方法,其还包括显示与所述对象相关联的菜单选项。
8.如权利要求1所述的方法,其中确定所述VR环境中的所述路径还包括:
基于所述力大小来确定所述VR环境中的所述路径的距离;以及
基于所述旋转角度来确定所述VR环境中的所述路径的方向。
9.如权利要求1所述的方法,其中确定所述VR环境中的所述路径还包括:
在所述VR环境的边界表面上接近所述路径和所述边界表面的相交点的位置处设置锚点;以及
相对于横穿所述VR环境中与用户相关联的视角的至少一个点和所述锚点的轴线,调整所述VR环境中的所述视角的位置或所述视角的取向。
10.如权利要求1所述的方法,其中所述旋转角度是第一旋转角度,并且所述力大小是第一力大小,并且所述方法还包括:
基于所述第二移动来确定第二旋转角度;以及
基于所述第二移动来确定第二力大小;
其中确定所述路径是基于对应于所述第一旋转角度和所述第一力大小的第一路径与对应于所述第二旋转角度和所述第二力大小的第二路径之间的平均、并集或叠加。
11.一种用于交互式控制的虚拟现实(VR)***,所述***包括:
网络接口,其在通信网络中通信;
处理器,其耦合到所述网络接口并适于执行一个或多个过程;以及
存储器,其被配置为存储能够由所述处理器执行的过程,所述过程能够执行以:
检测与虚拟现实(VR)环境相关联的第一控制器的第一移动;
基于所述第一移动来确定旋转角度;
确定与所述第一移动相关联的力大小;
确定所述VR环境中对应于所述旋转角度和所述力大小的路径;
在所述VR环境中投影出所述路径;
检测与所述VR环境相关联的第二控制器的第二移动;以及
基于所述第二移动来调整所述路径。
12.如权利要求11所述的VR***,其中所述第一控制器的所述第一移动包括从第一位置到第二位置的移动,其中所述确定所述旋转角度的过程还能够执行以:
将所述第一位置映射到三维(3D)坐标系中的第一矢量;
将所述第二位置映射到所述3D坐标系中的第二矢量;以及
基于所述第一矢量与所述第二矢量之间的差来确定所述旋转角度。
13.如权利要求12所述的VR***,其中所述确定所述力大小的过程还能够执行以基于所述第一矢量与所述第二矢量之间的所述差来确定所述力大小。
14.如权利要求11所述的VR***,其中所述过程还能够执行以通过与用户相关联的视角在所述VR环境中沿着所述路径的至少一部分将移动制成动画。
15.如权利要求11所述的VR***,其中所述过程还能够执行以:
在所述VR环境中选择与所述路径的至少一部分相交的对象;
在所述VR环境中使所述对象沿着所述路径朝向与用户相关联的视角的当前位置移动;以及
显示与所述对象相关联的菜单选项。
16.如权利要求11所述的VR***,其中所述确定所述路径的过程还能够执行以:
在所述VR环境的边界表面上接近所述路径和所述边界表面的相交点的位置处设置锚点;以及
相对于横穿所述VR环境中与用户相关联的视角的至少一个点和所述锚点的轴线,调整所述VR环境中的所述视角的位置或所述视角的取向。
17.如权利要求11所述的VR***,其中所述旋转角度是第一旋转角度,并且所述力大小是第一力大小,并且其中所述过程还能够执行以:
基于所述第二移动来确定第二旋转角度;以及
基于所述第二移动来确定第二力大小;并且其中所述确定所述路径的过程是基于对应于所述第一旋转角度和所述第一力大小的第一路径与对应于所述第二旋转角度和所述第二力大小的第二路径之间的平均、并集或叠加。
18.一种非暂时性计算机可读存储介质,所述非暂时性计算机可读存储介质上编码有软件,所述软件能够由处理器执行以执行用于交互式控制的方法,所述方法包括:
检测与虚拟现实(VR)环境相关联的第一控制器的第一移动;
基于所述第一移动来确定旋转角度;
确定与所述第一移动相关联的力大小;
确定所述VR环境中对应于所述旋转角度和所述力大小的路径;
在所述VR环境中投影出所述路径;
检测与所述VR环境相关联的第二控制器的第二移动;以及
基于所述第二移动来调整所述路径。
CN201880044988.8A 2017-07-05 2018-07-02 模拟三维(3d)环境中的交互式输入控制 Active CN110869983B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/641,720 US10191566B1 (en) 2017-07-05 2017-07-05 Interactive input controls in a simulated three-dimensional (3D) environment
US15/641,720 2017-07-05
PCT/US2018/040604 WO2019010129A1 (en) 2017-07-05 2018-07-02 INTERACTIVE INPUT CONTROLS IN A SIMULATED THREE DIMENSIONAL ENVIRONMENT (3D)

Publications (2)

Publication Number Publication Date
CN110869983A true CN110869983A (zh) 2020-03-06
CN110869983B CN110869983B (zh) 2024-06-18

Family

ID=64903823

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880044988.8A Active CN110869983B (zh) 2017-07-05 2018-07-02 模拟三维(3d)环境中的交互式输入控制

Country Status (5)

Country Link
US (3) US10191566B1 (zh)
EP (1) EP3649622A4 (zh)
JP (1) JP7127107B2 (zh)
CN (1) CN110869983B (zh)
WO (1) WO2019010129A1 (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9696795B2 (en) 2015-02-13 2017-07-04 Leap Motion, Inc. Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments
US10191566B1 (en) 2017-07-05 2019-01-29 Sony Interactive Entertainment Inc. Interactive input controls in a simulated three-dimensional (3D) environment
US20190163271A1 (en) * 2017-11-27 2019-05-30 Immersion Corporation Systems and methods for providing haptic feedback according to tilt-based inputs
US11875012B2 (en) * 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
US11353967B2 (en) * 2018-05-31 2022-06-07 Arkh Litho Holdings, LLC Interacting with a virtual environment using a pointing controller
US11315278B1 (en) * 2018-09-27 2022-04-26 Apple Inc. Object detection and orientation estimation
KR20210136043A (ko) * 2019-02-18 2021-11-16 에이알케이에이치 리쏘 홀딩스, 엘엘씨 포인팅 제어기를 사용하는 스마트 디바이스와의 상호작용
US10937218B2 (en) * 2019-07-01 2021-03-02 Microsoft Technology Licensing, Llc Live cube preview animation
CN111192308B (zh) * 2019-12-31 2023-11-03 浙江商汤科技开发有限公司 图像处理方法及装置、电子设备和计算机存储介质
CN114764327B (zh) * 2022-05-09 2023-05-05 北京未来时空科技有限公司 一种三维可交互媒体的制作方法、装置及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060022833A1 (en) * 2004-07-29 2006-02-02 Kevin Ferguson Human movement measurement system
US20080064109A1 (en) * 2006-09-13 2008-03-13 Nintendo Co., Ltd. Storage medium storing a game program, game apparatus, and game controlling method
US20100113153A1 (en) * 2006-07-14 2010-05-06 Ailive, Inc. Self-Contained Inertial Navigation System for Interactive Control Using Movable Controllers
US20100203969A1 (en) * 2007-08-03 2010-08-12 Camelot Co., Ltd. Game device, game program and game object operation method
US20120038549A1 (en) * 2004-01-30 2012-02-16 Mandella Michael J Deriving input from six degrees of freedom interfaces
WO2015030534A1 (en) * 2013-08-30 2015-03-05 Golfzon Co.,Ltd. Golf practice system for providing golf lesson information and information processing method for providing golf lesson information using the same
CN105094345A (zh) * 2015-09-29 2015-11-25 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
CN106406525A (zh) * 2016-09-07 2017-02-15 讯飞幻境(北京)科技有限公司 虚拟现实交互方法、装置及设备

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5089079B2 (ja) * 2006-05-08 2012-12-05 任天堂株式会社 プログラム、情報記憶媒体及び画像生成システム
US8384665B1 (en) 2006-07-14 2013-02-26 Ailive, Inc. Method and system for making a selection in 3D virtual environment
US9542010B2 (en) * 2009-09-15 2017-01-10 Palo Alto Research Center Incorporated System for interacting with objects in a virtual environment
US10062208B2 (en) 2015-04-09 2018-08-28 Cinemoi North America, LLC Systems and methods to provide interactive virtual environments
US9678566B2 (en) 2015-06-03 2017-06-13 Oculus Vr, Llc Hand-held controllers for virtual reality system
US10761596B2 (en) * 2015-10-15 2020-09-01 Sony Interactive Entertainment Inc. Image processing apparatus, image processing method, and program
US10559117B2 (en) * 2016-02-08 2020-02-11 Google Llc Interactions and scaling in virtual reality
JP6058184B1 (ja) * 2016-03-10 2017-01-11 株式会社コロプラ ヘッドマウントディスプレイシステムを制御するための方法、および、プログラム
KR102407111B1 (ko) * 2016-05-20 2022-06-08 매직 립, 인코포레이티드 사용자 인터페이스 메뉴의 콘텍추얼 인식
US10249090B2 (en) * 2016-06-09 2019-04-02 Microsoft Technology Licensing, Llc Robust optical disambiguation and tracking of two or more hand-held controllers with passive optical and inertial tracking
JP6126273B1 (ja) * 2016-06-10 2017-05-10 株式会社コロプラ 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、および仮想空間を提供するためのシステム
US10395428B2 (en) * 2016-06-13 2019-08-27 Sony Interactive Entertainment Inc. HMD transitions for focusing on specific content in virtual-reality environments
US10268266B2 (en) * 2016-06-29 2019-04-23 Microsoft Technology Licensing, Llc Selection of objects in three-dimensional space
US10311543B2 (en) * 2016-10-27 2019-06-04 Microsoft Technology Licensing, Llc Virtual object movement
US10191566B1 (en) 2017-07-05 2019-01-29 Sony Interactive Entertainment Inc. Interactive input controls in a simulated three-dimensional (3D) environment

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120038549A1 (en) * 2004-01-30 2012-02-16 Mandella Michael J Deriving input from six degrees of freedom interfaces
US20060022833A1 (en) * 2004-07-29 2006-02-02 Kevin Ferguson Human movement measurement system
US20100113153A1 (en) * 2006-07-14 2010-05-06 Ailive, Inc. Self-Contained Inertial Navigation System for Interactive Control Using Movable Controllers
US20080064109A1 (en) * 2006-09-13 2008-03-13 Nintendo Co., Ltd. Storage medium storing a game program, game apparatus, and game controlling method
US20100203969A1 (en) * 2007-08-03 2010-08-12 Camelot Co., Ltd. Game device, game program and game object operation method
WO2015030534A1 (en) * 2013-08-30 2015-03-05 Golfzon Co.,Ltd. Golf practice system for providing golf lesson information and information processing method for providing golf lesson information using the same
CN105094345A (zh) * 2015-09-29 2015-11-25 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
CN106406525A (zh) * 2016-09-07 2017-02-15 讯飞幻境(北京)科技有限公司 虚拟现实交互方法、装置及设备

Also Published As

Publication number Publication date
US20190286252A1 (en) 2019-09-19
US10338698B2 (en) 2019-07-02
JP2020526831A (ja) 2020-08-31
CN110869983B (zh) 2024-06-18
US20190113984A1 (en) 2019-04-18
US10540022B2 (en) 2020-01-21
EP3649622A1 (en) 2020-05-13
US10191566B1 (en) 2019-01-29
WO2019010129A1 (en) 2019-01-10
EP3649622A4 (en) 2021-04-07
US20190011999A1 (en) 2019-01-10
JP7127107B2 (ja) 2022-08-29

Similar Documents

Publication Publication Date Title
CN110869983B (zh) 模拟三维(3d)环境中的交互式输入控制
CN110603509B (zh) 计算机介导的现实环境中直接和间接交互的联合
KR101833253B1 (ko) 증강현실 환경에서의 가상객체 조작방법 및 이를 구현하는 증강현실 장치
WO2015025345A1 (ja) 情報表示装置、情報表示方法および情報表示プログラム
US10983661B2 (en) Interface for positioning an object in three-dimensional graphical space
JP2018113025A (ja) 触覚によるコンプライアンス錯覚のためのシステム及び方法
JP7495156B2 (ja) 操作体に基づく動的表示方法、装置、記憶媒体及び電子機器
CN111420395A (zh) 游戏中的交互方法及装置、可读存储介质、电子设备
CN108776544A (zh) 增强现实中的交互方法及装置、存储介质、电子设备
EP3367216A1 (en) Systems and methods for virtual affective touch
CN108170295A (zh) 虚拟摄像机状态控制方法、装置、电子设备及存储介质
CN108245889A (zh) 自由视角朝向切换方法及装置、存储介质、电子设备
CN112965773B (zh) 用于信息显示的方法、装置、设备和存储介质
JP6530001B2 (ja) プログラム、及びシステム
CN113168225B (zh) 使用无监督机器学习来定位用于回声定位的空间化声音节点
CN112987924A (zh) 用于设备交互的方法、装置、设备和存储介质
KR20210129067A (ko) 상호작용 방법, 장치, 상호작용 장치, 전자 장치 및 저장 매체
EP3582080A1 (en) Systems and methods for integrating haptics overlay in augmented reality
EP3051513A1 (en) Display apparatus and control method thereof
KR102582745B1 (ko) 대화방을 3차원 형태로 제공하는 방법과 시스템 및 비-일시적인 컴퓨터 판독 가능한 기록 매체
CN107957781B (zh) 信息显示方法及装置
WO2015030623A1 (en) Methods and systems for locating substantially planar surfaces of 3d scene
EP3295291B1 (en) Drawing object inferring system and method
EP4207090A1 (en) A method of learning a target object using a virtual viewpoint camera and a method of augmenting a virtual model on a real object that implements the target object using the same
CN117597652A (zh) 用于xr环境中的选择任务的x射线视景和远程锚

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant