CN106708249B - 交互方法、交互装置及用户设备 - Google Patents

交互方法、交互装置及用户设备 Download PDF

Info

Publication number
CN106708249B
CN106708249B CN201510463498.XA CN201510463498A CN106708249B CN 106708249 B CN106708249 B CN 106708249B CN 201510463498 A CN201510463498 A CN 201510463498A CN 106708249 B CN106708249 B CN 106708249B
Authority
CN
China
Prior art keywords
information
gaze
gazing
virtual
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510463498.XA
Other languages
English (en)
Other versions
CN106708249A (zh
Inventor
杜琳
丁大勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zhigu Ruituo Technology Services Co Ltd
Original Assignee
Beijing Zhigu Ruituo Technology Services Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zhigu Ruituo Technology Services Co Ltd filed Critical Beijing Zhigu Ruituo Technology Services Co Ltd
Priority to CN201510463498.XA priority Critical patent/CN106708249B/zh
Priority to US15/219,731 priority patent/US10108259B2/en
Publication of CN106708249A publication Critical patent/CN106708249A/zh
Application granted granted Critical
Publication of CN106708249B publication Critical patent/CN106708249B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)

Abstract

本申请实施例公开了一种交互方法、交互装置及用户设备,所述交互方法包括:获取一用户至少一眼睛在一位置上以一注视方向观看一虚拟呈现对象的第一注视信息、以及在所述位置上以所述注视方向观看一实体对象的第二注视信息;响应于所述第一注视信息与所述第二注视信息之间的差异在设定的偏差范围外,执行一操作。本申请实施例可以通过用户的注视来准确、方便地将所述虚拟呈现对象的呈现位置与环境中的所述实体对象的位置关联起来。

Description

交互方法、交互装置及用户设备
技术领域
本申请涉及一种人机交互技术领域,尤其涉及一种交互方法、交互装置及用户设备。
背景技术
随着技术的发展,智能用户设备的种类越来越多,功能也越来越强大。智能眼镜、智能头盔等近眼设备由于使用位置靠近用户的眼睛,往往被设计为具有强大的呈现能力,可以向用户呈现图像、视频等视觉内容。其中,透过式近眼设备既可以向用户呈现虚拟对象,又可以让用户的视线透过所述透过式近眼设备来观察周围环境中的对象。
发明内容
本申请实施例可能的目的是:提供一种交互技术方案。
第一方面,本申请的一可能的实施方案提供了一种交互方法,包括:
获取一用户至少一眼睛在一位置上以一注视方向观看一虚拟呈现对象的第一注视信息、以及在所述位置上以所述注视方向观看一实体对象的第二注视信息;
响应于所述第一注视信息与所述第二注视信息之间的差异在设定的偏差范围外,执行一操作。
结合第一方面,在第二种可能的实施方式中,获取所述第一注视信息包括:
以一虚拟呈现距离和所述注视方向向所述至少一眼睛呈现所述虚拟呈现对象;
获取所述至少一眼睛的所述第一注视信息。
结合第一方面的上述任一种可能的实施方式,在第三种可能的实施方式中,获取所述第一注视信息以及所述第二注视信息包括:
以一虚拟呈现距离以及一呈现方向向所述至少一眼睛呈现所述虚拟呈现对象;
获取所述至少一眼睛的所述第一注视信息和所述注视方向;
削弱或消除所述虚拟呈现对象的呈现,获取所述至少一眼睛在所述注视方向上的所述第二注视信息。
结合第一方面的上述任一种可能的实施方式,在第四种可能的实施方式中,获取所述第一注视信息以及所述第二注视信息包括:
获取所述至少一眼睛的所述注视方向以及所述第二注视信息;
根据所述注视方向确定与所述注视方向对应的所述虚拟呈现对象的呈现方向;
以一虚拟呈现距离和所述呈现方向向所述至少一眼睛呈现所述虚拟呈现对象;
获取所述第一注视信息。
结合第一方面的上述任一种可能的实施方式,在第五种可能的实施方式中,
所述第一注视信息包括:第一注视距离信息;
所述第二注视信息包括:第二注视距离信息。
结合第一方面的上述任一种可能的实施方式,在第六种可能的实施方式中,
所述第一注视信息包括:第一眼电信息;
所述第二注视信息包括:第二眼电信息。
结合第一方面的上述任一种可能的实施方式,在第七种可能的实施方式中,所述至少一眼睛为两眼。
结合第一方面的上述任一种可能的实施方式,在第八种可能的实施方式中,
所述第一注视信息包括:第一注视角度信息;
所述第二注视信息包括:第二注视角度信息。
结合第一方面的上述任一种可能的实施方式,在第九种可能的实施方式中,所述操作包括:
与对应于所述虚拟呈现对象的一虚拟呈现距离相关的一操作。
结合第一方面的上述任一种可能的实施方式,在第十种可能的实施方式中,所述执行所述操作包括:
调节与所述虚拟呈现对象对应的一虚拟呈现距离。
结合第一方面的上述任一种可能的实施方式,在第十一种可能的实施方式中,
所述执行所述操作包括:
根据所述差异调节所述虚拟呈现距离。
结合第一方面的上述任一种可能的实施方式,在第十二种可能的实施方式中,所述方法还包括:
根据所述注视方向和调节后的所述虚拟呈现距离确定所述实体对象相对于所述用户的位置。
结合第一方面的上述任一种可能的实施方式,在第十三种可能的实施方式中,所述执行所述操作包括:
根据所述注视方向、与所述虚拟呈现对象对应的一虚拟呈现距离以及所述差异确定所述实体对象相对于所述用户的位置。
结合第一方面的上述任一种可能的实施方式,在第十四种可能的实施方式中,所述方法还包括:
响应于所述差异在所述偏差范围内,根据所述注视方向和与所述虚拟呈现对象对应的一虚拟呈现距离确定所述实体对象相对于所述用户的位置。
第二方面,本申请的一可能的实施方案提供了一种交互装置,包括:
信息获取模块,用于获取一用户至少一眼睛在一位置上以一注视方向观看一虚拟呈现对象的第一注视信息、以及在所述位置上以所述注视方向观看一实体对象的第二注视信息;
第一处理执行模块,用于响应于所述第一注视信息与所述第二注视信息之间的差异在设定的偏差范围外,执行一操作。
结合第二方面,在第二种可能的实施方式中,所述信息获取模块包括:
虚拟呈现单元,用于以一虚拟呈现距离和所述注视方向向所述至少一眼睛呈现所述虚拟呈现对象;
信息获取单元,用于在所述虚拟呈现单元呈现所述虚拟呈现对象的条件下获取所述至少一眼睛的所述第一注视信息。
结合第二方面的上述任一种可能的实施方式,在第三种可能的实施方式中,
所述第一注视信息包括:第一注视距离信息;
所述第二注视信息包括:第二注视距离信息。
结合第二方面的上述任一种可能的实施方式,在第四种可能的实施方式中,
所述第一注视信息包括:第一眼电信息;
所述第二注视信息包括:第二眼电信息。
结合第二方面的上述任一种可能的实施方式,在第五种可能的实施方式中,所述至少一眼睛为两眼。
结合第二方面的上述任一种可能的实施方式,在第六种可能的实施方式中,
所述第一注视信息包括:第一注视角度信息;
所述第二注视信息包括:第二注视角度信息。
结合第二方面的上述任一种可能的实施方式,在第七种可能的实施方式中,所述操作包括:
与对应于所述虚拟呈现对象的一虚拟呈现距离相关的一操作。
结合第二方面的上述任一种可能的实施方式,在第八种可能的实施方式中,所述第一处理执行模块包括:
呈现调节单元,用于响应于所述第一注视信息与所述第二注视信息之间的差异在设定的偏差范围外,调节与所述虚拟呈现对象对应的一虚拟呈现距离。
结合第二方面的上述任一种可能的实施方式,在第九种可能的实施方式中,所述呈现调节单元进一步用于:
响应于所述第一注视信息与所述第二注视信息之间的差异在设定的偏差范围外,根据所述差异调节所述虚拟呈现距离。
结合第二方面的上述任一种可能的实施方式,在第十种可能的实施方式中,所述第一处理执行模块还包括:
第一位置确定模块,用于根据所述注视方向和调节后的所述虚拟呈现距离确定所述实体对象相对于所述用户的位置。
结合第二方面的上述任一种可能的实施方式,在第十一种可能的实施方式中,所述第一处理执行模块包括:
第二位置确定单元,用于根据所述注视方向、与所述虚拟呈现对象对应的一虚拟呈现距离以及所述差异确定所述实体对象相对于所述用户的位置。
结合第二方面的上述任一种可能的实施方式,在第十二种可能的实施方式中,所述装置还包括:
第二处理执行模块,用于响应于所述差异在所述偏差范围内,根据所述注视方向和与所述虚拟呈现对象对应的一虚拟呈现距离确定所述实体对象相对于所述用户的位置。
第三方面,本申请的一可能的实施方案提供了一种用户设备,所述用户设备包括:
存储器,用于存放指令;
处理器,用于执行所述存储器存储的指令,所述指令使得所述处理器执行以下操作:
获取一用户至少一眼睛在一位置上以一注视方向观看一虚拟呈现对象的第一注视信息、以及在所述位置上以所述注视方向观看一实体对象的第二注视信息;
响应于所述第一注视信息与所述第二注视信息之间的差异在设定的偏差范围外,执行一操作。
本申请实施例的至少一个实施方案通过用户在一位置上以一注视方向观看一实体对象和一虚拟呈现对象分别对应的第一注视信息和第二注视信息之间的差异来确定一操作的执行,进而可以通过用户的注视来准确、方便地将所述虚拟呈现对象的呈现位置与环境中的所述实体对象的位置关联起来。
例如,在一些可能的实施方案中,可以根据所述虚拟呈现对象的呈现位置来准确、方便地确定所述实体对象的位置;或者,在另一些可能的实施方案中,可以将所述虚拟呈现对象准确地呈现在需要相对于所述实体对象呈现的呈现位置。
附图说明
图1为本申请实施例的一种交互方法的流程图;
图2为本申请实施例的一种交互装置的结构示意框图;
图3a和图3b为本申请实施例的一种交互装置的应用示意图;
图4a~4e为本申请实施例的五种交互装置的结构示意框图;
图5为本申请实施例的一种用户设备的结构示意框图。
具体实施方式
下面结合附图(若干附图中相同的标号表示相同的元素)和实施例,对本申请的具体实施方式作进一步详细说明。以下实施例用于说明本申请,但不用来限制本申请的范围。
本领域技术人员可以理解,本申请中的“第一”、“第二”等术语仅用于区别不同步骤、设备或模块等,既不代表任何特定技术含义,也不表示它们之间的必然逻辑顺序。
如图1所示,本申请实施例提供了一种交互方法,包括:
S110获取一用户至少一眼睛在一位置上以一注视方向观看一虚拟呈现对象的第一注视信息、以及在所述位置上以所述注视方向观看一实体对象的第二注视信息;
S120响应于所述第一注视信息与所述第二注视信息之间的差异在设定的偏差范围外,执行一操作。
举例来说,本申请提供的交互装置作为本实施例的执行主体,执行S110~S120。具体地,所述交互装置可以以软件、硬件或软硬件结合的方式设置在用户设备中,或者,所述交互装置本身就是所述用户设备;所述用户设备包括但不限于:智能眼镜、智能头盔、智能手机、平板电脑、电脑等,其中智能眼镜又分为智能框架眼镜和智能隐形眼镜。
本申请的发明人发现,仅通过所述第一注视信息来确定用户注视所述虚拟呈现对象的注视点相对于所述用户的距离、和/或仅通过所述第二注视信息来确定所述实体对象相对于所述用户的距离的准确度还有待提高,但是所述第一注视信息与所述第二注视信息之间的差异可以被准确地检测出来,因此本申请实施例上述实施方式通过用户在一位置上以一注视方向观看一实体对象和一虚拟呈现对象分别对应的第一注视信息和第二注视信息之间的差异来确定一操作的执行,进而可以通过用户的注视来准确、方便地将所述虚拟呈现对象的呈现位置与环境中的所述实体对象的位置关联起来。
通过下面的实施方式进一步说明本申请实施例的方法。
S110获取一用户至少一眼睛在一位置上以一注视方向观看一虚拟呈现对象的第一注视信息、以及在所述位置上以所述注视方向观看一实体对象的第二注视信息。
在一种可能的实施方式中,可选地,
所述第一注视信息可以包括:第一注视距离信息;
所述第二注视信息可以包括:第二注视距离信息。
其中,所述第一注视距离信息为所述用户注视所述虚拟呈现对象时注视点相对于所述用户的距离的相关信息;所述第二注视距离信息为所述用户注视所述实体对象时注视点相对于所述用户的距离的相关信息。
在一种可能的实施方式中,可选地,
所述第一注视信息可以包括:第一眼电信息;
所述第二注视信息可以包括:第二眼电信息。
在一种可能的实施方式中,所述第一眼电信息和所述第二眼电信息可以为用户分别观看所述虚拟呈现对象和所述实体对象所对应的眼电相关信息。
其中,所述眼电相关信息例如可以包括以下的至少一种:
眼电图的波形随时间变化信息、眼电的幅度信息、眼电变化的频率信息等。
在另一种可能的实施方式中,为了提高确定所述差异是否在所述偏差范围外的准确度,可选地,
所述第一注视信息可以同时包括所述第一注视距离信息和所述第一眼电信息;
所述第二注视信息可以同时包括所述第二注视距离信息和所述第二眼电信息。
在本实施方式中,在确定所述第一注视信息和所述第二注视信息的差异是否在设定的偏差范围外时,可以同时确定所述第一注视距离信息与所述第二注视距离信息的差异在第一偏差范围外、以及所述第一眼电信息和所述第二眼电信息的差异在第二偏差范围外。
在一种可能的实施方式中,可选地,所述至少一眼睛为两眼。
在所述至少一眼睛为一眼的实施方式中,所述注视方向可以为所述一眼的视线方向。
在所述至少一眼睛为所述两眼的实施方式中,所述注视方向例如可以为以下的一种:
所述两眼的注视点到所述两眼连线中点的连线所对应的方向;
所述两眼分别对应的两条视线所成的夹角的等分线所对应的方向等。
从上面的描述可以看出,在本实施方式中,当一用户在一位置上通过所述两眼观看一注视方向上不同注视距离的对象时,除了上面所述的注视距离信息或眼电信息会发生变化外,所述两眼的注视角度也会发生变化,所述注视角度例如可以通过用户的瞳孔在眼睛中的位置来表征。因此,在一种可能的实施方式中,可选地,
所述第一注视信息可以包括:第一注视角度信息;
所述第二注视信息可以包括:第二注视角度信息。
在一些可能的实施方式中,所述第一注视信息也可以同时包括所述第一注视角度信息和上面所述的第一注视距离信息、和/或第一眼电信息。所述第二注视信息也可以同时包括所述第二注视角度信息和上面所述的第二注视距离信息、和/或第二眼电信息。
在一种可能的实施方式中,所述获取所述第一注视信息和所述第二注视信息可以:通过注视信息采集装置采集所述第一注视信息和所述第二注视信息;或采集与所述第一注视信息和所述第二注视信息相关的信息,经过处理得到所述第一注视信息和所述第二注视信息。
例如:可以通过对眼摄像头采集用户眼睛的图像、或眼底的图像等并进行处理的方式来得到用户眼睛的注视距离信息和/或注视角度信息;可以通过眼电传感装置来采集用户的眼电信息。
本领域的技术人员可以知道,其它可能的注视信息也可以被应用在本申请实施例中作为所述第一注视信息和第二注视信息,例如,用户眼睛的第一图像信息和第二图像信息、用户眼底的第一图像信息和第二图像信息等,所述差异例如可以为图像差异。
所述S110通过对应的采集装置来采集所述第一注视信息和所述第二注视信息的几种可能的实施方式如下面所述:
在一种可能的实施方式中,可选地,获取所述第一注视信息包括:
以一虚拟呈现距离和所述注视方向向所述至少一眼睛呈现所述虚拟呈现对象;
获取所述至少一眼睛的所述第一注视信息。
这里,所述向所述至少一眼睛呈现所述虚拟呈现对象例如可以为:
通过一智能眼镜或一智能头盔上位于用户眼前的可透过式显示屏来显示所述虚拟呈现对象对应的内容,并且通过控制显示参数中的一虚拟呈现距离来使得用户观看到位于与所述虚拟呈现距离对应的虚拟感知距离的所述虚拟呈现对象;或者,
通过用户的头戴式设备上的对眼投射装置来向用户的眼底投射所述虚拟呈现对象对应的内容,并且通过控制投射参数中的一虚拟呈现距离来使得用户观看到位于与所述虚拟呈现距离对应的虚拟感知距离的所述虚拟呈现对象。
在向所述至少一眼镜呈现了所述虚拟呈现对象后,通常,用户的注意力便会被所述虚拟呈现对象所吸引,进而注视点落在所述虚拟呈现对象上,此时采集到的所述至少一眼睛的注视信息便会是所述第一注视信息。
在一种可能的实施方式中,可选地,所述S110可以包括:
以一虚拟呈现距离以及一呈现方向向所述至少一眼睛呈现所述虚拟呈现对象;
获取所述至少一眼睛的所述第一注视信息和所述注视方向;
削弱或消除所述虚拟呈现对象的呈现,获取所述至少一眼睛在所述注视方向上的所述第二注视信息。
本实施方式中,先向用户呈现所述虚拟呈现对象,获取用户注视所述虚拟呈现对象的所述第一注视信息(在一种可能的实施方式中,所述虚拟呈现对象是可透视的,此时,为了提高获取所述第一注视信息的准确性,可以指示用户有意识的观看所述虚拟呈现对象)。然后,削弱或消除所述虚拟呈现对象的呈现,例如,可以通过逐渐增加所述虚拟呈现对象的呈现透明度直至透明度为100%的方式来消除所述虚拟呈现对象的呈现。由于用户的视线无法落在没有任何物体的空中,因此,自然而然的会在注视方向不变的情况下看到原先被所述虚拟呈现对象所遮挡的实体对象。此时,获得的所述至少一眼睛的注视信息即为所述第二注视信息。
通过上面的描述可以看出,本实施方式可以在基本保证用户的注视方向不变的情况下,获得用户分别注视所述虚拟呈现对象和实体对象的第一注视信息和第二注视信息。
在另一种可能的实施方式中,可选地,所述S110可以包括:
获取所述至少一眼睛的所述注视方向以及所述第二注视信息;
根据所述注视方向确定与所述注视方向对应的所述虚拟呈现对象的呈现方向;
以一虚拟呈现距离和所述呈现方向向所述至少一眼睛呈现所述虚拟呈现对象;
获取所述第一注视信息。
在本实施方式中,在没有向所述用户呈现所述虚拟呈现对象的情况下获取用户的注视信息,此时,用户必然是在注视一实体对象,因此,所述注视信息即为所述第二注视信息。在获取所述第二注视信息时,还可以获取所述用户注视所述实体对象的注视方向。然后,根据所述注视方向确定一呈现方向,进而使得根据所述呈现方向呈现所述虚拟呈现对象时,所述虚拟呈现对象会位于所述注视方向上。再以一虚拟呈现距离和所述呈现方向向用户呈现所述虚拟呈现对象,由于用户的注视点会落在所述虚拟呈现对象上,因此,获取的所述用户的注视信息即为所述用户注视所述虚拟呈现对象的第一注视信息。
除了上面通过采集获取所述第一注视信息和所述第二注视信息外,在一种可能的实施方式中,还可以通过通信的方式从至少一外部设备获取所述第一注视信息和所述第二注视信息。
S120响应于所述第一注视信息与所述第二注视信息之间的差异在设定的偏差范围外,执行一操作。
本领域的技术人员可以知道,在本申请实施例中,所述差异代表了在所述注视方向上,所述虚拟呈现对象与所述实体对象到所述用户的距离差异。
在一种可能的实施方式中,所述偏差范围例如可以为所述差异基本为零,即所述第一注视信息与所述第二注视信息之间的基本没有差异。本领域技术人员可以知道,这里的差异基本为零并不局限于所述差异为零,在所述差异在一设定的误差范围内的时候,也可以认为所述差异基本为零。这里所述的误差范围可以根据精度的需要设置。
在另一种可能的实施方式中,所述偏差范围例如还可以是其它可能的范围,例如,在进行增强现实呈现的场景中,需要将一虚拟呈现对象投射在一实体对象与一用户之间的预定位置,可以根据所述预定位置与所述实体对象位置之间的差异来确定所述偏差范围。
在一种可能的实施方式中,可选地,所述操作包括:
与对应于所述虚拟呈现对象的一虚拟呈现距离相关的一操作。
例如,在一种可能的实施方式中,所述虚拟呈现距离相关的所述操作包括:
调节所述虚拟呈现距离。
在一种可能的实施方式中,可以试探性的调大或调小所述虚拟呈现距离,再获取所述差异,看所述差异是变大或是变小,如果变小可以再继续调节,如果变大则可以向相反的方向调节,直到所述差异在所述偏差范围内。
在另一种可能的实施方式中,可以根据所述差异调节所述虚拟呈现距离。在本实施方式中,例如,根据所述差异可以确定所述虚拟呈现距离比所述实体对象相对于所述用户的实际距离是偏大还是偏小,因此可以根据所述差异有目的性的调节所述虚拟呈现距离。例如,在一种可能的实施方式中,所述第一注视信息和所述第二注视信息分别为第一注视距离信息和所述第二注视距离信息,所述差异为-20cm,则可以确定所述虚拟呈现距离比所述实际距离小,此时,例如可以根据所述差异调大所述虚拟呈现距离。
当然,本领域技术人员可以知道,其它操作也可以被应用在本申请实施例中。
通过下面的几个应用场景来进一步说明本申请的实施例。
1)自动建模场景:
本申请的发明人发现,在增强现实或虚拟现实环境中,自动对周围环境建模是个重要问题,通常需要对视野中的环境或者计划投影可透视虚拟呈现对象的区域做精细建模,需要耗费很多计算能力。
例如,在本场景中,获取用户注视一虚拟呈现对象的第一注视信息和在对应的注视方向上注视环境中的实体对象的第二注视信息;
确定所述第一注视信息与所述第二注视信息之间的差异是否在设定的偏差范围外:
a)如果在所述偏差范围内,则根据所述注视方向和与所述虚拟呈现对象对应的一虚拟呈现距离(在本场景中,一用户对呈现的所述虚拟呈现对象的感知距离与所述虚拟呈现对象的虚拟呈现距离一致)确定所述实体对象相对于所述用户的位置;
b)如果在所述偏差范围外,则:
调节所述虚拟呈现对象的虚拟呈现距离,直到所述差异在所述偏差范围内;
再根据所述注视方向和调节后的所述虚拟呈现距离确定所述实体对象相对于所述用户的位置。
由上面的描述可以看出,由于所述虚拟呈现距离是可以准确获取的,本申请实施例根据所述虚拟呈现距离来确定实体对象相对于用户的距离,可以准确地确定所述实体对象相对于所述用户的距离,进而可以根据所述实体对象相对于所述用户的距离建立与当前环境对应的模型。
其中,对应上面所述的b)过程,在一些可能的实施方式中,可选地,也可以通过下面的手段替代,即:
如果所述差异在所述偏差范围外时,可以不对所述虚拟呈现距离进行调节,而是直接根据所述注视方向、所述虚拟呈现距离以及所述差异确定所述实体对象相对于所述用户的位置。
2)呈现校准场景:
在另一种可能的实施方式中,针对环境的模型可以已经建立,但是因为模型没有被精确建立、或者用户对一虚拟呈现对象的感知距离与所述虚拟呈现对象的虚拟呈现距离不一致等原因,造成所述模型与环境不完全匹配,此时通过本申请实施例的方法可以对所述模型进行修正。
例如,直接向用户的至少一眼睛呈现所述建立的模型,根据用户分别观看所述模型中各虚拟呈现对象的第一注视信息和对应的各实体对象的第二注视信息之间的差异,对所述各虚拟呈现对象的虚拟呈现距离进行调节,进而达到对所述模型进行修正的目的。
此外,在增强现实的场景中,也可以通过本申请实施例的方法来修正一虚拟呈现对象与现实环境中对应的一实体对象之间的位置关系,使得二者之间的位置关系满足预设的要求。
当然,本申请实施例还可以应用在其它跟虚拟呈现相关的场景中,这里不再一一列举。
本领域技术人员可以理解,在本申请具体实施方式的上述方法中,各步骤的序号大小并不意味着执行顺序的先后,各步骤的执行顺序应以其功能和内在逻辑确定,而不应对本申请具体实施方式的实施过程构成任何限定。
如图2所示,本申请一种可能的实施方式提供了一种交互装置200,包括:
信息获取模块210,用于获取一用户至少一眼睛在一位置上以一注视方向观看一虚拟呈现对象的第一注视信息、以及在所述位置上以所述注视方向观看一实体对象的第二注视信息;
第一处理执行模块220,用于响应于所述第一注视信息与所述第二注视信息之间的差异在设定的偏差范围外,执行一操作。
本申请实施例上述实施方式通过用户在一位置上以一注视方向观看一实体对象和一虚拟呈现对象分别对应的第一注视信息和第二注视信息之间的差异来确定一操作的执行,进而可以通过用户的注视来准确、方便地将所述虚拟呈现对象的呈现位置与环境中的所述实体对象的位置关联起来。
本申请实施例中,所述第一注视信息和所述第二注视信息的进一步描述可以参见图1所示实施例中对应的描述。
在一种可能的实施方式中,所述信息获取模块210可以包括:通信单元,用于从至少一外部设备获取所述第一注视信息和所述第二注视信息。
在另一种可能的实施方式中,如图4a所示,所述信息获取模块210可以包括信息获取单元211,所述信息获取单元211可以用于采集所述第二注视信息。
在一种可能的实施方式中,在所述第一和第二注视信息包含眼电信息时,所述信息获取单元211可以包括一眼电传感子单元,用于采集所述眼电信息。在一种可能的实施方式中,所述眼电传感子单元可以集成在一框架眼镜上。
在一种可能的实施方式中,在所述第一和第二注视信息包含注视距离信息和/或注视角度信息时,所述信息获取单元211可以包括一对眼图像传感子单元,用于采集用户的眼睛表面或眼底的图像信息,以得到所述注视距离信息或注视角度信息。
在一种可能的实施方式中,所述信息获取模块210还可以包括:
虚拟呈现单元212,用于以一虚拟呈现距离和所述注视方向向所述至少一眼睛呈现所述虚拟呈现对象;
所述信息获取单元211,还可以用于在所述虚拟呈现单元呈现所述虚拟呈现对象的条件下获取所述至少一眼睛的所述第一注视信息。
如图3a所示,在一种可能的实施方式中,所述信息获取模块210设置在一框架眼镜310上(或者,在一种可能的实施方式中,所述框架眼镜本身就是所述信息获取模块210)。
所述信息获取单元211包括一图像传感元件321,用于采集用户的眼睛或眼底的图像。其中,为了不妨碍用户观看现实环境中的对象,通过设置在用户的眼前的一第一分光元件323来形成所述图像传感元件321与用户眼睛之间的光路,同时使用户可以透过所述第一分光元件323来看见所述现实环境中的对象。
在采集所述用户的眼睛的图像的实施方式中,所述信息获取单元211可以仅包括所述图像传感元件321和所述第一分光元件323。
在需要采集所述用户的眼底图像的实施方式中,可选地,所述信息获取单元211还包括一位于所述眼睛和所述图像传感元件321之间的光路上的成像参数可调的透镜元件322,用于调节所述光路的成像参数,使得在用户眼睛的焦距变化时,通过调节所述透镜元件322的成像参数,所述图像传感元件321能够采集到足够清晰的眼底图像。
在一种可能的实施方式中,所述虚拟呈现单元212可以包括一投射元件331以及所述第一分光元件323,用于将所述投射元件331投射的与所述虚拟呈现对象对应的内容投射到所述用户的眼底。
在用户的眼睛焦距变化的实施方式中,所述虚拟呈现单元212也可以复用所述透镜元件322,用于调节所述投射元件331与眼睛之间的成像参数,使得所述虚拟呈现对象对应的内容被清晰的投射到所述用户的眼底。
在一些可能的实施方式中,所述投射元件331与所述图像传感元件321可以通过一第二分光元件324来反射从所述投射元件331到所述眼睛的光线,透射从所述眼睛到所述图像传感321的光线。
如图3a所示,在获取所述第一注视信息时(本实施方式中,以所述第一注视信息为第一注视距离信息为例进行说明),用户的眼睛观看一实体对象340,所述实体对象340经过所述第一分光元件323(例如一半反半透镜片)透射至用户的眼底,在所述用户的眼底成第一图像;所述用户眼底的图像(可以包括所述第一图像和/或所述用户眼底的血管、神经等分布图像)对应的光线经过所述第一分光元件323的反射、经过所述透镜元件322和所述第二分光元件324的透射后,被所述图像传感元件321接收。此时,可以通过调节所述透镜元件322的成像参数(例如,焦距和/或在光路上的位置等成像参数),来使得所述图像传感元件321获得清晰的所述眼底的图像对应的第二图像。此时,根据所述眼睛与所述图像传感元件321之间的光路上的成像参数以及所述眼底的图像就可以得到所述第一注视距离信息。
在获取第二注视信息时,所述投射元件331投射的虚拟呈现对象对应的内容经过所述第二分光元件324的反射、所述透镜元件322的透射以及所述第一分光元件322的反射后进入所述用户的眼底,使得所述用户看见所述虚拟呈现对象350。然后,通过上面获取所述第一注视距离信息的方法,通过所述图像传感元件321获取用户观看所述虚拟呈现对象350时的第二注视距离信息。
通过图3a所示的实施方式可以获取所述第一注视信息和所述第二注视信息。
在一种可能的实施方式中,可选地,所述操作可以包括:
与对应于所述虚拟呈现对象的一虚拟呈现距离相关的一操作。
例如,在一种可能的实施方式中,如图4b所示,所述第一处理执行模块220可以包括:
呈现调节单元221,用于响应于所述第一注视信息与所述第二注视信息之间的差异在设定的偏差范围外,调节与所述虚拟呈现对象对应的一虚拟呈现距离。
例如,在如图3a所示的实施方式中,所述第一注视距离信息与所述第二注视距离信息之间的差异D1-D2大于设定的偏差范围(在本实施方式中,所述偏差范围为所述差异基本为零),此时可以调节所述虚拟呈现距离,直到所述差异在设定的偏差范围内。如图3b所示为对所述虚拟呈现距离进行调节后,得到所述差异在所述偏差范围内的情况。
在一种可能的实施方式中,可选地,所述呈现调节单元221进一步可以用于:
响应于所述第一注视信息与所述第二注视信息之间的差异在设定的偏差范围外,根据所述差异调节所述虚拟呈现距离。
本申请的发明人发现,在增强现实或虚拟现实环境中,自动对周围环境建模是个重要问题,通常需要对视野中的环境或者计划投影可透视虚拟呈现对象的区域做精细建模,需要耗费很多计算能力。因此,在一种可能的实施方式中,如图4c所示,所述第一处理执行模块220还包括:
第一位置确定单元222,用于根据所述注视方向和调节后的所述虚拟呈现距离确定所述实体对象相对于所述用户的位置。
或者,在一种可能的实施方式中,如图4d所示,所述第一处理执行模块220包括:
第二位置确定单元223,用于根据所述注视方向、与所述虚拟呈现对象对应的一虚拟呈现距离以及所述差异确定所述实体对象相对于所述用户的位置。
通过上面的描述可以看出,本申请实施例通过用户的所述第一注视信息和所述第二注视信息就可以准确的得到所述实体对象相对于所述用户的位置,再根据所述实体对象相对于所述用户的位置就可以准确地为所述实体对象进行建模。
在一种可能的实施方式中,如图4e所示,所述装置200还包括:
第二处理执行模块230,用于响应于所述差异在所述偏差范围内,根据所述注视方向和与所述虚拟呈现对象对应的一虚拟呈现距离确定所述实体对象相对于所述用户的位置。
上述装置实施例中各模块、单元功能的进一步描述,参见图1所示实施例中对应的描述,这里不再赘述。
图5为本申请实施例提供的又一种用户设备500的结构示意图,本申请具体实施例并不对用户设备500的具体实现做限定。如图5所示,该用户设备500可以包括:
处理器(processor)510、通信接口(Communications Interface)520、存储器(memory)530、以及通信总线540。其中:
处理器510、通信接口520、以及存储器530通过通信总线540完成相互间的通信。
通信接口520,用于与比如客户端等的网元通信。
处理器510,用于执行指令532,具体可以执行上述方法实施例中的相关步骤。
具体地,指令532可以包括程序代码,所述程序代码包括计算机操作指令。
处理器510可能是一个中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本申请实施例的一个或多个集成电路。
存储器530,用于存放指令532。存储器530可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。指令532具体可以用于使得所述用户设备500执行以下步骤:
获取一用户至少一眼睛在一位置上以一注视方向观看一虚拟呈现对象的第一注视信息、以及在所述位置上以所述注视方向观看一实体对象的第二注视信息;
响应于所述第一注视信息与所述第二注视信息之间的差异在设定的偏差范围外,执行一操作。
指令532中各步骤的具体实现可以参见上述实施例中的相应步骤和单元中对应的描述,在此不赘述。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的设备和模块的具体工作过程,可以参考前述方法实施例中的对应过程描述,在此不再赘述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及方法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上实施方式仅用于说明本申请,而并非对本申请的限制,有关技术领域的普通技术人员,在不脱离本申请的精神和范围的情况下,还可以做出各种变化和变型,因此所有等同的技术方案也属于本申请的范畴,本申请的专利保护范围应由权利要求限定。

Claims (10)

1.一种交互方法,其特征在于,包括:
获取一用户至少一眼睛在一位置上以一注视方向观看一虚拟呈现对象的第一注视信息、以及在所述位置上以所述注视方向观看一实体对象的第二注视信息;所述第一注视信息包括第一注视距离信息,和/或第一眼电信息,所述第二注视信息包括第二注视距离信息,和/或第二眼电信息;
响应于所述第一注视信息与所述第二注视信息之间的差异在设定的偏差范围外,执行一操作。
2.如权利要求1所述的方法,其特征在于,获取所述第一注视信息包括:
以一虚拟呈现距离和所述注视方向向所述至少一眼睛呈现所述虚拟呈现对象;
获取所述至少一眼睛的所述第一注视信息。
3.如权利要求1所述的方法,其特征在于,所述操作包括:
与对应于所述虚拟呈现对象的一虚拟呈现距离相关的一操作。
4.如权利要求1或3所述的方法,其特征在于,所述执行所述操作包括:
调节与所述虚拟呈现对象对应的一虚拟呈现距离。
5.如权利要求4所述的方法,其特征在于,所述方法还包括:
根据所述注视方向和调节后的所述虚拟呈现距离确定所述实体对象相对于所述用户的位置。
6.一种交互装置,其特征在于,包括:
信息获取模块,用于获取一用户至少一眼睛在一位置上以一注视方向观看一虚拟呈现对象的第一注视信息、以及在所述位置上以所述注视方向观看一实体对象的第二注视信息;所述第一注视信息包括第一注视距离信息,和/或第一眼电信息,所述第二注视信息包括第二注视距离信息,和/或第二眼电信息;
第一处理执行模块,用于响应于所述第一注视信息与所述第二注视信息之间的差异在设定的偏差范围外,执行一操作。
7.如权利要求6所述的装置,其特征在于,所述信息获取模块包括:
虚拟呈现单元,用于以一虚拟呈现距离和所述注视方向向所述至少一眼睛呈现所述虚拟呈现对象;
信息获取单元,用于在所述虚拟呈现单元呈现所述虚拟呈现对象的条件下获取所述至少一眼睛的所述第一注视信息。
8.如权利要求6所述的装置,其特征在于,所述第一处理执行模块包括:
呈现调节单元,用于响应于所述第一注视信息与所述第二注视信息之间的差异在设定的偏差范围外,调节与所述虚拟呈现对象对应的一虚拟呈现距离。
9.如权利要求8所述的装置,其特征在于,所述第一处理执行模块还包括:
第一位置确定模块,用于根据所述注视方向和调节后的所述虚拟呈现距离确定所述实体对象相对于所述用户的位置。
10.一种用户设备,其特征在于,所述用户设备包括:
存储器,用于存放指令;
处理器,用于执行所述存储器存储的指令,所述指令使得所述处理器执行以下操作:
获取一用户至少一眼睛在一位置上以一注视方向观看一虚拟呈现对象的第一注视信息、以及在所述位置上以所述注视方向观看一实体对象的第二注视信息;
响应于所述第一注视信息与所述第二注视信息之间的差异在设定的偏差范围外,执行一操作。
CN201510463498.XA 2015-07-31 2015-07-31 交互方法、交互装置及用户设备 Active CN106708249B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201510463498.XA CN106708249B (zh) 2015-07-31 2015-07-31 交互方法、交互装置及用户设备
US15/219,731 US10108259B2 (en) 2015-07-31 2016-07-26 Interaction method, interaction apparatus and user equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510463498.XA CN106708249B (zh) 2015-07-31 2015-07-31 交互方法、交互装置及用户设备

Publications (2)

Publication Number Publication Date
CN106708249A CN106708249A (zh) 2017-05-24
CN106708249B true CN106708249B (zh) 2020-03-03

Family

ID=57882425

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510463498.XA Active CN106708249B (zh) 2015-07-31 2015-07-31 交互方法、交互装置及用户设备

Country Status (2)

Country Link
US (1) US10108259B2 (zh)
CN (1) CN106708249B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106155459B (zh) * 2015-04-01 2019-06-14 北京智谷睿拓技术服务有限公司 交互方法、交互装置及用户设备
CN109508126A (zh) * 2017-09-15 2019-03-22 阿里巴巴集团控股有限公司 信息展示方法及装置
CN109036403A (zh) * 2018-07-20 2018-12-18 北京小米移动软件有限公司 信息交互方法及装置
CN109697918B (zh) * 2018-12-29 2021-04-27 深圳市掌网科技股份有限公司 一种基于增强现实的打击乐器体验***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015048905A1 (en) * 2013-10-03 2015-04-09 Sulon Technologies Inc. System and method for incorporating a physical image stream in a head mounted display
CN104571532A (zh) * 2015-02-04 2015-04-29 网易有道信息技术(北京)有限公司 一种实现增强现实或虚拟现实的方法及装置
CN104660995A (zh) * 2015-02-11 2015-05-27 尼森科技(湖北)有限公司 一种救灾救援可视***

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102981616B (zh) * 2012-11-06 2017-09-22 中兴通讯股份有限公司 增强现实中对象的识别方法及***和计算机
US9619021B2 (en) * 2013-01-09 2017-04-11 Lg Electronics Inc. Head mounted display providing eye gaze calibration and control method thereof
US9256987B2 (en) * 2013-06-24 2016-02-09 Microsoft Technology Licensing, Llc Tracking head movement when wearing mobile device
CN103366610B (zh) * 2013-07-03 2015-07-22 央数文化(上海)股份有限公司 基于增强现实的三维互动学习***及方法
CN103604412B (zh) * 2013-10-30 2015-11-18 北京智谷睿拓技术服务有限公司 定位方法及定位装置
US9858718B2 (en) * 2015-01-27 2018-01-02 Microsoft Technology Licensing, Llc Dynamically adaptable virtual lists

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015048905A1 (en) * 2013-10-03 2015-04-09 Sulon Technologies Inc. System and method for incorporating a physical image stream in a head mounted display
CN104571532A (zh) * 2015-02-04 2015-04-29 网易有道信息技术(北京)有限公司 一种实现增强现实或虚拟现实的方法及装置
CN104660995A (zh) * 2015-02-11 2015-05-27 尼森科技(湖北)有限公司 一种救灾救援可视***

Also Published As

Publication number Publication date
CN106708249A (zh) 2017-05-24
US20170031438A1 (en) 2017-02-02
US10108259B2 (en) 2018-10-23

Similar Documents

Publication Publication Date Title
CN110187855B (zh) 近眼显示设备的避免全息影像阻挡视线的智能调节方法
CN108427503B (zh) 人眼追踪方法及人眼追踪装置
KR102543341B1 (ko) 눈 추적 정보에 기반하는 이미지 영역에서의 적응형 파라미터
JP5967597B2 (ja) 画像表示装置および画像表示方法
CN109074681B (zh) 信息处理装置、信息处理方法和程序
US10048750B2 (en) Content projection system and content projection method
JP5414946B2 (ja) ヘッドマウントディスプレイおよびその位置ずれ調整方法
JP6454851B2 (ja) 3次元上の注視点の位置特定アルゴリズム
US20230269358A1 (en) Methods and systems for multiple access to a single hardware data stream
US11822718B2 (en) Display systems and methods for determining vertical alignment between left and right displays and a user's eyes
KR101788452B1 (ko) 시선 인식을 이용하는 콘텐츠 재생 장치 및 방법
CN115053270A (zh) 用于基于用户身份来操作头戴式显示***的***和方法
CN106708249B (zh) 交互方法、交互装置及用户设备
US11561392B2 (en) Method for generating and displaying a virtual object by an optical system
CN112099622B (zh) 一种视线追踪方法及装置
JP2019215688A (ja) 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム
CN113325947A (zh) 一种显示方法、装置、终端设备及存储介质
TWI646355B (zh) 頭戴式顯示器與調整方法
CN111479104A (zh) 用于计算视线会聚距离的方法
US11517195B2 (en) Panum's area measurement method, apparatus, and wearable display device
WO2016203844A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2023102500A1 (en) Methods for controlling performance of extended reality display systems
CN115834858A (zh) 显示方法、装置、头戴显示设备及存储介质
JP6479836B2 (ja) 入出力装置、入出力プログラム、および入出力方法
CN115877573A (zh) 显示方法、头戴显示设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant