CN109901290A - 注视区域的确定方法、装置及可穿戴设备 - Google Patents

注视区域的确定方法、装置及可穿戴设备 Download PDF

Info

Publication number
CN109901290A
CN109901290A CN201910333506.7A CN201910333506A CN109901290A CN 109901290 A CN109901290 A CN 109901290A CN 201910333506 A CN201910333506 A CN 201910333506A CN 109901290 A CN109901290 A CN 109901290A
Authority
CN
China
Prior art keywords
eye
image
target
display screen
virtual image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910333506.7A
Other languages
English (en)
Other versions
CN109901290B (zh
Inventor
李文宇
苗京花
孙玉坤
王雪丰
彭金豹
李治富
赵斌
李茜
范清文
索健文
刘亚丽
栗可
陈丽莉
张�浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Beijing BOE Optoelectronics Technology Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Beijing BOE Optoelectronics Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd, Beijing BOE Optoelectronics Technology Co Ltd filed Critical BOE Technology Group Co Ltd
Priority to CN201910333506.7A priority Critical patent/CN109901290B/zh
Publication of CN109901290A publication Critical patent/CN109901290A/zh
Priority to PCT/CN2020/080961 priority patent/WO2020215960A1/zh
Application granted granted Critical
Publication of CN109901290B publication Critical patent/CN109901290B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种注视区域的确定方法、装置及可穿戴设备,属于电子技术应用领域。所述方法通过第一目标眼当前在第一显示屏上的注视点以及第一目标眼的视场角确定目标虚拟区间,并将该目标虚拟区域确定为第二目标眼的视场角的范围内的区域,以此来确定第二目标眼的视场角,进而可以确定出第一目标眼当前看到的第一虚像以及第二目标眼当前看到的第二虚像,由此能够确定出第一目标眼在第一显示屏显示的图像中的第一注视区域以及第二目标眼在第二显示屏显示的图像中的第二注视区域。如此使得第一注视区域和第二注视区域可以准确重合,解决了相关技术的可穿戴设备中图像的显示效果较差的问题,有效提高了可穿戴设备中图像的显示效果。

Description

注视区域的确定方法、装置及可穿戴设备
技术领域
本发明涉及电子技术应用领域,特别涉及一种注视区域的确定方法、装置及可穿戴设备。
背景技术
虚拟现实(英文:Virtual Reality;简称:VR)技术是近年来备受市场青睐的技术。VR技术能够构建一个三维环境(即虚拟场景),通过该三维环境为用户提供沉浸感。
目前,用户对用于呈现该三维环境的图像的清晰度要求越来越高,为了避免高清图像的传输压力,采用VR技术的可穿戴设备可以有针对性地将其显示屏所显示的图像中用户注视的部分图像呈现为高清图像,而将其他部分图像呈现为非高清图像。相关技术中提供了一种注视区域的确定方法,可以用于确定用户注视的部分图像,该方法中根据用户左眼的注视点信息以及右眼的注视点信息分别确定出该用户的左眼注视区域和右眼注视区域。
但是,由于同一物体在左右眼的视野范围的位置存在差异,导致相关技术中分别确定的左眼注视区域和右眼注视区域难以完全重合,进而导致基于该左右眼的注视区域分别确定的左右眼的高清图像也难以完全重合,影响可穿戴设备中图像的显示效果。
发明内容
本发明实施例提供了一种注视区域的确定方法、装置及可穿戴设备,可以解决相关技术中存在的可穿戴设备中图像显示效果较差的技术问题。所述技术方案如下:
第一方面,提供了一种注视区域的确定方法,所述方法应用于可穿戴设备,所述可穿戴设备包括第一显示组件以及第二显示组件,所述第一显示组件包括第一显示屏以及位于所述第一显示屏出光侧的第一透镜,所述第二显示组件包括第二显示屏以及位于所述第二显示屏出光侧的第二透镜,所述方法包括:
获取第一目标眼当前在所述第一显示屏上的注视点,所述第一目标眼为左眼或者右眼;
根据所述注视点以及所述第一目标眼的视场角确定目标虚拟区域,所述目标虚拟区域为所述可穿戴设备呈现出的三维环境中,当前位于所述第一目标眼的可视范围内的区域;
根据所述注视点以及所述第一目标眼的视场角确定第一目标虚像,所述第一目标虚像为当前所述第一显示屏显示的图像通过所述第一透镜所成的第一虚像中,位于所述第一目标眼的可视范围内的虚像;
将所述目标虚拟区域确定为所述可穿戴设备呈现出的三维环境中,当前位于所述第二目标眼的可视范围内的区域,所述第二目标眼为左眼和右眼中除所述第一目标眼之外的眼睛;
根据所述目标虚拟区域以及所述第二目标眼的位置确定第二目标虚像,所述第二目标虚像为所述第二显示屏当前显示的图像通过所述第二透镜所成的第二虚像中,位于所述第二目标眼的可视范围内的虚像;
根据所述第一目标虚像和所述第二目标虚像,确定所述第一目标眼在所述第一显示屏显示的图像中的第一注视区域,以及所述第二目标眼在所述第二显示屏显示的图像中的第二注视区域。
可选的,所述根据所述注视点以及所述第一目标眼的视场角确定目标虚拟区域,包括:
根据所述注视点以及所述第一目标眼的视场角确定所述第一目标眼当前的可视范围;
将所述三维环境中位于所述第一目标眼当前的可视范围内的区域确定为所述目标虚拟区域。
可选的,所述根据所述目标虚拟区域以及所述第二目标眼的位置确定第二目标虚像,包括:
根据所述目标虚拟区域以及所述第二目标眼的位置确定所述第二目标眼当前的可视范围;
将所述第二虚像位于所述第二目标眼当前的可视范围内的部分确定为所述第二目标虚像。
可选的,所述根据所述注视点以及所述第一目标眼的视场角确定第一目标虚像,包括:
根据所述第一目标眼的位置、所述注视点以及所述第一目标眼的视场角确定所述第一目标眼当前的可视范围;
将所述第一虚像位于所述第一目标眼当前的可视范围内的部分确定为所述第一目标虚像。
可选的,所述根据所述第一目标虚像和所述第二目标虚像,确定所述第一目标眼在所述第一显示屏显示的图像中的第一注视区域,以及所述第二目标眼在所述第二显示屏显示的图像中的第二注视区域,包括:
获取所述第一目标虚像在所述第一显示屏显示的图像中的第一对应区域,以及所述第二目标虚像在所述第二显示屏显示的图像中的第二对应区域;
将所述第一对应区域确定为所述第一注视区域;
将所述第二对应区域确定为所述第二注视区域。
第二方面,提供了一种注视区域的确定装置,所述装置应用于可穿戴设备,所述可穿戴设备包括第一显示组件以及第二显示组件,所述第一显示组件包括第一显示屏以及位于所述第一显示屏出光侧的第一透镜,所述第二显示组件包括第二显示屏以及位于所述第二显示屏出光侧的第二透镜,所述装置包括:
获取模块,用于获取第一目标眼当前在所述第一显示屏上的注视点,所述第一目标眼为左眼或者右眼;
第一确定模块,用于根据所述注视点以及所述第一目标眼的视场角确定目标虚拟区域,所述目标虚拟区域为所述可穿戴设备呈现出的三维环境中,当前位于所述第一目标眼的可视范围内的区域;
第二确定模块,用于根据所述注视点以及所述第一目标眼的视场角确定第一目标虚像,所述第一目标虚像为当前所述第一显示屏显示的图像通过所述第一透镜所成的第一虚像中,位于所述第一目标眼的可视范围内的虚像;
第三确定模块,用于将所述目标虚拟区域确定为所述可穿戴设备呈现出的三维环境中,当前位于所述第二目标眼的可视范围内的区域,所述第二目标眼为左眼和右眼中除所述第一目标眼之外的眼睛;
第四确定模块,用于根据所述目标虚拟区域以及所述第二目标眼的位置确定第二目标虚像,所述第二目标虚像为所述第二显示屏当前显示的图像通过所述第二透镜所成的第二虚像中,位于所述第二目标眼的可视范围内的虚像;
第五确定模块,用于根据所述第一目标虚像和所述第二目标虚像,确定所述第一目标眼在所述第一显示屏显示的图像中的第一注视区域,以及所述第二目标眼在所述第二显示屏显示的图像中的第二注视区域。
可选的,所述第一确定模块,用于:
根据所述注视点以及所述第一目标眼的视场角确定所述第一目标眼当前的可视范围;
将所述三维环境中位于所述第一目标眼当前的可视范围内的区域确定为所述目标虚拟区域。
可选的,所述第四确定模块,用于:
根据所述目标虚拟区域以及所述第二目标眼的位置确定所述第二目标眼当前的可视范围;
将所述第二虚像位于所述第二目标眼当前的可视范围内的部分确定为所述第二目标虚像。
可选的,所述第二确定模块,用于:
根据所述第一目标眼的位置、所述注视点以及所述第一目标眼的视场角确定所述第一目标眼当前的可视范围;
将所述第一虚像位于所述第一目标眼当前的可视范围内的部分确定为所述第一目标虚像。
第三方面,提供了一种可穿戴设备,所述可穿戴设备包括:注视区域的确定装置、图像采集组件、第一显示组件以及第二显示组件;
其中,所述第一显示组件包括第一显示屏以及位于所述第一显示屏出光侧的第一透镜,所述第二显示组件包括第二显示屏以及位于所述第二显示屏出光侧的第二透镜;
所述注视区域的确定装置为第二方面所述的装置。
本发明实施例提供的技术方案带来的有益效果是:
通过第一目标眼当前在第一显示屏上的注视点以及第一目标眼的视场角确定目标虚拟区域,并将该目标虚拟区域确定为第二目标眼的可视范围内的区域,以此来确定第二目标眼的可视范围,进而可以确定出第一目标眼当前看到的第一虚像以及第二目标眼当前看到的第二虚像,由此能够确定出第一目标眼在第一显示屏显示的图像中的第一注视区域以及第二目标眼在第二显示屏显示的图像中的第二注视区域。由于两个目标眼在显示屏上的注视区域由同一个目标虚拟区域确定,因而第一注视区域和第二注视区域可以准确重合,解决了相关技术中左右眼注视区域难以完全重合而导致可穿戴设备中图像的显示效果较差的问题,有效提高了可穿戴设备中图像的显示效果,提升了用户的观感体验。
附图说明
作为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是采用相关技术中的注视区域的确定方法确定出的左右眼的高清图像的示意图;
图2是本发明实施例提供的一种可穿戴设备的结构示意图;
图3是本发明实施例提供的一种人眼透过透镜观看显示屏中的图像的示意图;
图4是本发明实施例提供的一种注视区域的确定方法的方法流程图;
图5是本发明实施例提供的另一种注视区域的确定方法的方法流程图;
图6是本发明实施例提供的一种根据注视点以及第一目标眼的视场角确定目标虚拟区域的方法流程图;
图7是本发明实施例示出的一种第一目标眼当前的可视范围的示意图;
图8是本发明实施例提供的一种根据注视点以及第一目标眼的视场角确定第一目标虚像的方法流程图;
图9是本发明实施例提供的一种根据目标虚拟区域以及第二目标眼的位置确定第二目标虚像的方法流程图;
图10是本发明实施例提供的一种确定注视区域的示意图;
图11是本发明实施例提供的一种注视区域的确定装置的框图;
图12是本发明实施例提供的一种可穿戴设备的结构示意图。
具体实施方式
作为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
为了有助于读者理解,在对本发明实施例进行详细介绍之前,在此先对本发明实施例所涉及的名词进行解释:
VR技术,是一种利用可穿戴设备将人对外界的视觉甚至听觉封闭,以引导用户产生一种身在虚拟的三维环境中的感觉的技术。其显示原理是左右眼对应的显示屏分别显示供左右眼观看的图像,由于人眼存在视差,使得大脑在通过人眼获取到带有差异的图像后产生了接近真实的立体感。VR技术通常由VR***实现,该VR***可以包括可穿戴设备以及VR主机。其中,VR主机可以集成于可穿戴设备中,或者是能够与可穿戴设备有线或无线连接的外连设备。该VR主机用于对图像进行渲染并将渲染后的图像发送至可穿戴设备,可穿戴设备用于接收并显示该渲染后的图像。
眼动追踪(英文:Eyetracking),也称眼球追踪,是一种通过采集人眼的人眼图像,来分析出人眼的眼球运动信息,并基于该眼球运动信息确定出人眼当前在显示屏上的注视点的技术。进一步的,眼动追踪技术中,可以根据确定出的人眼当前在显示屏上的注视点确定出人眼当前在显示屏上的注视区域。
SmartView是一个通过将VR技术与eyetracking技术相结合,以实现高清VR技术的技术方案。该技术方案包括:首先通过eyetracking技术精确追踪用户在显示屏上的注视区域,然后只对该注视区域进行高清渲染,而对其他区域进行非高清渲染,同时集成电路(英文:Integrated Circuit,简称:IC)能够将渲染的非高清图像(也称低清图像或者低清晰度图像)处理成高分辨率图像,显示在显示屏上。其中,该显示屏可以为液晶显示(英文:Liquid Crystal Display,简称:LCD)屏或者有机发光二极管(英文:Organic Light-Emitting Diode,简称:OLED)显示屏等。
Unity,也称Unity引擎,是由联合科技(英文:Unity Technologies)开发的一个多平台的综合型游戏开发工具,是一个全面整合的专业游戏引擎。Unity可以用于开发VR技术。
需要说明的是,用户是否能够通过屏幕观看到高清图像主要由两方面的因素决定,一方面是屏幕本身的物理分辨率,即屏幕上像素点的个数,目前,市场上出现的主流可穿戴设备屏幕的单眼分辨率为1080*1200;另一方面是待显示图像的清晰度。只有当屏幕的分辨率越高以及待显示图像的清晰度越高时,用户才能够通过屏幕观看到高清图像。其中,清晰度越高意味着VR主机需要对可穿戴设备中用于呈现三维环境的图像进行更精细化的渲染处理。
也就是说,若想使用户观测到更高清的图像,既需要提高屏幕的分辨率,也需要同时提高图像的清晰度,而若提高图像的清晰度明显会增加VR主机的渲染压力以及该VR主机与可穿戴设备之间的图像传输所需的带宽。因此,在解决如何使单眼分辨率为4320*4320甚至更高分辨率的屏幕呈现出更高清的图像这一问题上一直存在瓶颈。而上述smartview技术的引入则一定程度上解决了单眼高清图像在硬件传输和软件渲染方面的瓶颈。该smartview技术结合eyetracking技术,既能够保证注视区域的高清需求,又降低了渲染压力和图像传输带宽。
相关技术中,为了确保能够准确地确定出双眼的注视点坐标,eyetracking技术需要在可穿戴设备中设置两个相机,该两个相机能够分别采集左眼和右眼的人眼图像(该人眼图像也称为注视点图像等),由VR主机基于该人眼图像进行注视点坐标的计算。
但是,该技术方案中设置的两个相机大大增加了VR***中可穿戴设备的重量以及成本,不利于该VR***的普遍推广。
并且,该技术方案并未考虑到人的视觉特点:由于左右眼分别位于空间中的不同位置,使得双眼看物体的视角不同,如此导致同一物体在不同眼球视野中的位置有所差异,进而导致两眼所看到的图像实际上并不是完全重合的。因此,若根据左右眼的人眼图像分别计算出左右眼的注视点坐标,该左右眼的注视点坐标实际上在显示屏中的位置并不重合,若进一步根据该左右眼的注视点坐标确定左右眼的注视区域,导致该左右眼的注视点区域也难以无法完全重合。
若采用smartview技术对不重合的左右眼的注视点区域分别进行高清渲染,导致生成的左右眼的高清图形也难以完全重合。如图1所示,该图示出了对左右眼的注视点区域分别进行高清渲染后得到的左眼高清图像11和右眼高清图像12。从图1中可以看出,左眼高清图像11和右眼高清图像12仅有中间的部分区域重叠。呈现给用户的视觉感受则是用户在其左右眼的视野范围内均能看到高清图像区域13、高清图像区域14以及高清图像区域15。其中,高清图像区域13为左右眼均能看到的高清图像区域,而高清图像区域14为仅左眼能看到的高清图像区域,高清图像区域15为仅右眼能看到的高清图像区域。由于高清图像区域14和高清图像区域15仅为双眼中的某一只眼睛能够看到的高清图像区域,当用户双眼同时注视显示屏时,会影响用户的观感体验,且该两个图像区域之间会呈现出较为明显的交界线,进一步影响了用户的观感体验。
本发明实施例提供了一种注视区域的确定方法,能够保证确定出的左右眼的注视区域重叠,如此使得用户可以观看到完全重叠的高清图像,有效提高了用户体验。在对该方法进行介绍之前,首先对该方法所应用于的可穿戴设备进行介绍。
本发明实施例提供了一种可穿戴设备。如图2所示,该可穿戴设备20可以包括第一显示组件21以及第二显示组件22,该第一显示组件21包括第一显示屏211以及位于该第一显示屏211出光侧的第一透镜212,该第二显示组件22包括第二显示屏221以及位于该第二显示屏221出光侧的第二透镜222。其中,透镜(即第一透镜212和第二透镜222)用于放大对应的显示屏(即第一显示屏211和第二显示屏221)上显示的图像,以为用户提供更真实的沉浸感。
以第一显示组件21为例,如图3所示,人眼透过第一透镜212观测到第一显示屏211当前显示的图像对应的第一虚像213,该第一虚像213通常为第一显示屏211当前显示的图像放大后的图像。
另外,该可穿戴设备还可以包括图像采集组件,该图像采集组件可以是眼动跟踪摄像头,该眼动跟踪摄像头集成于可穿戴设备的第一显示屏和第二显示屏中的至少一个显示屏周围,用于实时采集与某一显示屏对应的人眼图像,并将其发送至VR主机,VR主机基于对该人眼图像进行处理以确定该人眼在该显示屏上的注视点坐标。注视区域的确定装置获取该注视点坐标。
该可穿戴设备还包括注视区域的确定装置,该装置可以通过软件或硬件的方式结合于可穿戴设备中,或者结合于VR主机中,该装置可以用于执行下述注视区域的确定方法。
图4示出了本发明实施例提供的一种注视区域的确定方法的流程图,该方法可以包括如下步骤:
步骤201、获取第一目标眼当前在第一显示屏上的注视点,第一目标眼为左眼或者右眼。
步骤202、根据注视点以及第一目标眼的视场角确定目标虚拟区域,目标虚拟区域为可穿戴设备呈现出的三维环境中,当前位于第一目标眼的可视范围内的区域。
步骤203、根据注视点以及第一目标眼的视场角确定第一目标虚像,第一目标虚像为当前第一显示屏显示的图像通过第一透镜所成的第一虚像中,位于第一目标眼的可视范围内的虚像。
步骤204、将目标虚拟区域确定为可穿戴设备呈现出的三维环境中,当前位于第二目标眼的可视范围内的区域,第二目标眼为左眼和右眼中除第一目标眼之外的眼睛。
步骤205、根据目标虚拟区域以及第二目标眼的位置确定第二目标虚像,第二目标虚像为第二显示屏当前显示的图像通过第二透镜所成的第二虚像中,位于第二目标眼的可视范围内的虚像。
步骤206、根据第一目标虚像和第二目标虚像,确定第一目标眼在第一显示屏显示的图像中的第一注视区域,以及第二目标眼在第二显示屏显示的图像中的第二注视区域。
综上所述,本发明实施例提供的注视区域的确定方法,通过第一目标眼当前在第一显示屏上的注视点以及第一目标眼的视场角确定目标虚拟区域,并将该目标虚拟区域确定为第二目标眼的可视范围内的区域,以此来确定第二目标眼的可视范围,进而可以确定出第一目标眼当前看到的第一虚像以及第二目标眼当前看到的第二虚像,由此能够确定出第一目标眼在第一显示屏显示的图像中的第一注视区域以及第二目标眼在第二显示屏显示的图像中的第二注视区域。由于两个目标眼在显示屏上的注视区域由同一个目标虚拟区域确定,因而第一注视区域和第二注视区域可以准确重合,有效提高了可穿戴设备中图像的显示效果,解决了相关技术中左右眼注视区域难以完全重合而导致可穿戴设备中图像的显示效果较差的问题,有效提高了可穿戴设备中图像的显示效果,提升了用户的观感体验。
图5示出了本发明实施例提供的另一种注视区域的确定方法的流程图,该方法同样可由注视区域的确定装置执行,应用于可穿戴设备,该可穿戴设备的结构可以参考上述图2所示的可穿戴设备。该方法可以包括如下步骤:
步骤301、获取第一目标眼当前在第一显示屏上的注视点,第一目标眼为左眼或者右眼。
在本发明实施例中,可穿戴设备的第一显示屏的周围可以设置有眼动跟踪摄像头,该眼动跟踪摄像头可以实时采集其对应的人眼的人眼图像,VR主机根据该人眼图像确定该人眼在第一显示屏上的注视点坐标。注视区域的确定装置获取该注视点坐标。
步骤302、根据注视点以及第一目标眼的视场角确定目标虚拟区域,目标虚拟区域为可穿戴设备呈现出的三维环境中,当前位于第一目标眼的可视范围内的区域。
可选的,如图6所示,根据注视点以及第一目标眼的视场角确定目标虚拟区域的过程可以包括:
步骤3021、根据注视点以及第一目标眼的视场角确定第一目标眼当前的可视范围。
第一目标眼的视场角可以由水平视场角和垂直视场角组成,位于人眼的水平视场角和垂直视场角内的区域为第一目标眼的可视范围。人眼实际能够达到的视场角是有限的,一般而言,人眼的水平视场角最大为188度,垂直视场角最大为150度。通常情况下,不管人眼如何转动,人眼的视场角是保持不变的,根据人眼当前的注视点以及第一目标眼的水平视场角和垂直视场角,则可以确定该眼当前的可视范围。当然,左右眼的视场角可能存在差异,个体不同的情况下,人眼的视场角也可能不同,本发明实施例对此不做限制。
图7示意性的示出了第一目标眼O当前的注视点G、第一目标眼的水平视场角a、垂直视场角b以及第一目标眼当前的可视范围(即点O、点P、点Q、点M和点N所围成的空间区域)的示意图。
步骤3022、将三维环境中位于第一目标眼当前的可视范围内的区域确定为目标虚拟区域。
为了给用户提供良好的沉浸感,在实际应用中,可穿戴设备中呈现出的三维环境的场景范围应该大于人眼的可视范围。因此,本发明实施例在实际应用中,将三维环境中位于第一目标眼当前的可视范围内的区域确定为目标虚拟区域。
当然,若可穿戴设备中呈现出的三维环境的场景范围小于人眼的可视范围,则将第一目标眼当前的可视范围中位于三维环境的场景范围内的区域确定为目标虚拟区域。
可选的,步骤3022中,确定目标虚拟区域的过程可以包括如下步骤:
步骤A1、从第一目标眼的位置所在点发出至少两条射线,至少两条射线分别沿第一目标眼的视场角的边界射出。
Unity引擎可以从第一目标眼的位置所在点发出至少两条射线(该射线为虚拟射线),也即是,以第一目标眼的位置所在点为起点绘制至少两条射线,该至少两条射线可以分别沿第一目标眼的视场角的边界射出。
在本发明实施例提供的可穿戴设备中,在第一目标眼的位置所在点和第二目标眼的位置所在点分别设置有第一虚拟摄像机以及第二虚拟摄像机。用户左右眼通过可穿戴设备中的第一显示屏和第二显示屏看到的画面分别来自该第一虚拟摄像机和第二虚拟摄像机拍摄的画面。
由于第一目标眼的位置所在点即为可穿戴设备中第一虚拟摄像机的位置所在点,因此,本发明实施例在实际应用中,可以通过虚拟摄像机的位置来表征目标眼的位置,则Unity引擎可以从第一虚拟摄像机的位置处发出至少两条射线。
步骤A2、获取至少两条射线与虚拟区域发生接触的至少两个标定点。
在该至少两条射线的延伸方向上,该至少两条射线会与可穿戴设备呈现出的三维环境即虚拟区域接触而形成至少两个标定点。在Unity引擎中,具有物理属性的射线与虚拟物体表面的碰撞器发生碰撞时,Unity引擎可识别出碰撞点的坐标,即虚拟物体表面的坐标。
步骤A3、将至少两个标定点在虚拟区域中所围成的区域确定为目标虚拟区域。
在本发明实施例中,可以预先确定目标虚像区域的几何图形,按照该几何图形将该至少两个标定点进行连线,将该连线所围成的区域确定为目标虚拟区域。
当然,在本发明实施例中,也可以对该连线所围成的区域进一步进行物体识别,以提取出该所围成的区域中的有效物体,而忽略该所围成区域中的无效物体(例如天空等背景),将该有效物体所在的区域确定为目标虚拟区域。
步骤303、根据注视点以及第一目标眼的视场角确定第一目标虚像,第一目标虚像为当前第一显示屏显示的图像通过第一透镜所成的第一虚像中,位于第一目标眼的可视范围内的虚像。
左右眼分别通过第一透镜和第二透镜看到了第一虚像和第二虚像,该第一虚像和第二虚像同时呈现于左右眼面前时,双眼同时获取该第一虚像和第二虚像,大脑中形成了具有深度的三维图像。在本发明实施例中,为了确定该第一目标虚像,需要重新将第一目标眼看到的第一虚像和第二目标眼看到的第二虚像重新标识。
当然,为了不影响可穿戴设备中图像的显示效果,该重新标识出的第一虚像和第二虚像可以是透明的。
可选的,如图8所示,根据注视点以及第一目标眼的视场角确定第一目标虚像的过程可以包括:
步骤3031、根据第一目标眼的位置、注视点以及第一目标眼的视场角确定第一目标眼当前的可视范围。
步骤3031的过程可以参考上述步骤3021的相关描述,本发明实施例在此不再赘述。
步骤3032、将第一虚像位于第一目标眼当前的可视范围内的部分确定为第一目标虚像。
可选的,步骤3032中,确定第一目标虚像的过程可以包括如下步骤:
步骤B1、从第一目标眼的位置所在点发出至少两条射线,至少两条射线分别沿第一目标眼的视场角的边界射出。
步骤B1的过程可以参考上述步骤A1的相关描述,本发明实施例在此不再赘述。
步骤B1的目的是为了将第一目标眼当前的可视范围通过射线的方式表征出来,以便准确确定出位于第一虚像中的第一目标虚像。
步骤B2、分别获取至少两条射线与第一虚像接触的至少两个第一接触点。
在该至少两条射线的延伸方向上,该至少两条射线会与第一虚像接触而形成至少两个第一接触点。
步骤B3、将该至少两个第一接触点所围成的区域确定为第一目标虚像。
可选的,与上述步骤A3类似,在本发明实施例中,可以根据预先确定的几何图形确定第一目标虚像,也可以对该围成的区域进行物体识别,将识别出的物体确定为第一目标虚像。
步骤304、将目标虚拟区域确定为可穿戴设备呈现出的三维环境中,当前位于第二目标眼的视场角的范围内的区域,第二目标眼为左眼和右眼中除第一目标眼之外的眼睛。
通过将根据第一目标眼的注视点以及第一目标眼的视场角确定的目标虚拟区域确定为第二目标眼的视场角的范围内的区域,可以保证确定出的双眼的注视区域重叠。
步骤305、根据目标虚拟区域以及第二目标眼的位置确定第二目标虚像,第二目标虚像为第二显示屏当前显示的图像通过第二透镜所成的第二虚像中,位于第二目标眼的视场角的范围内的虚像。
可选的,如图9所示,根据目标虚拟区域以及第二目标眼的位置确定第二目标虚像的过程可以包括:
步骤3051、根据目标虚拟区域以及第二目标眼的位置确定第二目标眼当前在该三维环境中的可视范围。
从第二目标眼的位置所在点发出至少两条射线,至少两条射线分别与围成目标虚拟区域的至少两个标定点连接。则第二目标眼的位置所在点以及该至少两个标定点所围成的空间区域为第二目标眼当前在该三维环境中的可视范围。该第二目标眼当前在该三维环境中的可视范围为第二目标眼当前的可视范围内的部分空间区域。
与上述步骤3022类似,Unity引擎可以控制第二目标眼的位置所在点发出至少两条射线,也即是,以第二目标眼的位置所在点为起点,以至少两个标定点为终点,绘制至少两条射线。第二目标眼的位置所在点为可穿戴设备中第二虚拟摄像机的位置所在点。
步骤3052、将第二虚像位于第二目标眼当前在该三维环境中的可视范围内的部分确定为第二目标虚像。
可选的,步骤3052中确定第二目标虚像的过程可以包括如下步骤:
步骤C1、分别获取至少两条射线与第二虚像接触的至少两个第二接触点。在该至少两条射线的延伸方向上,该至少两条射线会与第二虚线接触而形成至少两个第二接触点。
步骤C2、将该至少两个第二接触点所围成的区域确定为第二目标虚像。
可选的,与上述步骤A3类似,在本发明实施例中,可以根据预先确定的几何图形确定第二目标虚像,也可以对该围成的区域进行物体识别,将识别出的物体确定为第二目标虚像。
需要说明的是,为了保证左右眼所观测到的物体的一致性,在步骤B3以及步骤D2中,对围成的区域进行物体识别时应该采取相同的算法以及相同的算法参数,以确保识别出的物体一致。
步骤306、获取第一目标虚像在第一显示屏显示的图像中的第一对应区域,以及第二目标虚像在所述第二显示屏显示的图像中的第二对应区域。
分别将至少两个第一接触点以及至少两个第二接触点转化为第一显示屏所显示的图像中的至少两个第一图像点,以及第二显示屏所显示的图像中的至少两个第二图像点。
由于透镜的物理特性,用户在透过透镜观看目标图像时,也即是用户在观看目标图像所呈的目标虚像时,该目标虚像相较于目标图像产生了畸变,为了避免用户看到畸变的目标图像,需要预先对该目标图像采用反畸变网格的方式进行反畸变处理。该反畸变网格中记录有虚像坐标与图像坐标的对应关系。
在本发明实施例中,该至少两个第一接触点和该至少两个第二接触点均为位于虚像中的虚像坐标,该至少两个第一图像点和至少两个第二图像点均为屏幕中显示的图像中的图像坐标(屏幕的坐标与屏幕中显示的图像坐标对应),因此,基于反畸变网格中虚像坐标与图像坐标的对应关系,可以将该至少两个第一接触点以及至少两个第二接触点转化为第一显示屏所显示的图像中的至少两个第一图像点,以及第二显示屏所显示的图像中的至少两个第二图像点。
根据至少两个第一图像点确定第一对应区域,可选的,将该至少两个第一图像点所围成的区域确定为第一对应区域,或者,可以对该围成的区域进行物体识别,将识别出的物体确定为第一对应区域;根据至少两个第二图像点确定第二对应区域,可选的,将该至少两个第二图像点所围成的区域确定为第二对应区域,或者,可以对该围成的区域进行物体识别,将识别出的物体确定为第二对应区域。
步骤307、将第一对应区域确定为第一注视区域。
步骤308、将第二对应区域确定为第二注视区域。
综上所述,本申请实施例提供的注视区域的确定方法,通过第一目标眼当前在第一显示屏上的注视点以及第一目标眼的视场角确定目标虚拟区域,并将该目标虚拟区域确定为第二目标眼的可视范围内的区域,以此来确定第二目标眼的可视范围,进而可以确定出第一目标眼当前看到的第一虚像以及第二目标眼当前看到的第二虚像,由此能够确定出第一目标眼在第一显示屏显示的图像中的第一注视区域以及第二目标眼在第二显示屏显示的图像中的第二注视区域。由于两个目标眼在显示屏上的注视区域由同一个目标虚拟区域确定,因而第一注视区域和第二注视区域可以准确重合,解决了相关技术中左右眼注视区域难以完全重合而导致可穿戴设备中图像的显示效果较差的问题,有效提高了可穿戴设备中图像的显示效果,提升了用户的观感体验。
进一步的,在本发明实施例所描述的注视区域的确定方法中,在步骤301中,获取到的第一目标眼当前在显示屏上的注视点,可以由一个眼动跟踪摄像头完成,因此,应用本发明实施例所提供的注视区域的确定方法的可穿戴设备中,可以仅设置一个眼动跟踪摄像头,相较于相关技术中,需要给左右眼分别设置眼动跟踪摄像头,通过分别采集左右眼的人眼图像,分析左右眼的注视点,以确定出左右眼的注视区域,本发明实施例所提供的注视区域的确定方法可以有效降低可穿戴装置的重量以及成本,有利于可穿戴设备的普遍推广。
需要说明的是,上述步骤的顺序可以根据实际需要进行调整,例如,步骤307和步骤308可以同时执行或者先执行步骤308再执行步骤307,再例如,步骤303和步骤304可以同时执行或者先执行步骤304再执行步骤303。
以下结合图10对上述实施例进行进一步说明。以第一目标眼为左眼为例,注视区域的确定方法包括以下步骤:
步骤S1、获取第一目标眼213当前在第一显示屏211上的注视点S。
步骤S2、根据注视点S确定第一目标眼213的视场角α。
在本实施例中,以视场角为水平视场角为例进行说明。
步骤S3、从第一目标眼213的位置所在点发出两条射线,该两条射线分别沿第一目标眼213的视场角α的边界射出,获取该两条射线与虚拟区域23发生接触的标定点S1和标定点S2,将该两个标定点在虚拟区域23中所围成的区域确定为目标虚拟区域。
在本实施例中,以标定点S1和标定点S2的连线之间的区域表示目标虚拟区域为例进行说明。
步骤S4、分别获取从第一目标眼213的位置所在点发出的两条射线与第一虚像214接触的第一接触点C’和第一接触点A’,根据第一接触点C’和第一接触点A’确定第一目标虚像。
在本实施例中,以第一接触点C’和第一接触点A’的连线之间的区域表示第一目标虚像为例进行说明。
步骤S5、将目标虚拟区域确定为可穿戴设备呈现出的三维环境中,当前位于第二目标眼223的视场角β的范围内的区域。
步骤S6、从第二目标眼223的位置所在点发出两条射线,该两条射线分别与围成目标虚拟区域的标定点S1和标定点S2分别连接,分别获取该两条射线与第二虚像224接触的第二接触点D’和第二接触点B’,根据第二接触点D’和第二接触点B’确定第二目标虚像。
在本实施例中,以第二接触点D’和第二接触点B’的连线之间的区域表示第二目标虚像为例进行说明。
步骤S7、分别将第一接触点C’和第一接触点A’,以及第二接触点D’和第二接触点B’转化为第一显示屏所显示的图像中的第一图像点C和第一图像点A,以及第二显示屏所显示的图像中的第二图像点D和第二图像点B,根据第一图像点C和第一图像点A,确定第一注视区域,根据第二图像点D和第二图像点B,确定第二注视区域。
需要说明的是,本发明实施例在实际实现时,第一虚像214和第二虚像224是重叠的,但是为了便于对注视区域的确定方法的说明,在图9中将第一虚像214和第二虚像224未画为重叠状态。另外,对于用于表示目标虚拟区域的标定点S1和标定点S2,以及注视点S等均为示意性说明。
图11示出了本发明实施例提供的一种注视区域的确定装置30,该装置30可以应用于可穿戴设备,该可穿戴设备可以参考图2所示的结构,该注视区域的确定装置30包括:
获取模块301,用于获取第一目标眼当前在所述第一显示屏上的注视点,所述第一目标眼为左眼或者右眼;
第一确定模块302,用于根据所述注视点以及所述第一目标眼的视场角确定目标虚拟区域,所述目标虚拟区域为所述可穿戴设备呈现出的三维环境中,当前位于所述第一目标眼的可视范围内的区域;
第二确定模块303,用于根据所述注视点以及所述第一目标眼的视场角确定所述第一目标虚像,所述第一目标虚像为当前所述第一显示屏显示的图像通过所述第一透镜所成的第一虚像中,位于所述第一目标眼的可视范围内的虚像;
第三确定模块304,用于将所述目标虚拟区域确定为所述可穿戴设备呈现出的三维环境中,当前位于所述第二目标眼的可视范围内的区域,所述第二目标眼为左眼和右眼中除所述第一目标眼之外的眼睛;
第四确定模块305,用于根据所述目标虚拟区域以及所述第二目标眼的位置确定第二目标虚像,所述第二目标虚像为所述第二显示屏当前显示的图像通过所述第二透镜所成的第二虚像中,位于所述第二目标眼的可视范围内的虚像;
第五确定模块306,用于根据所述第一目标虚像和所述第二目标虚像,确定所述第一目标眼在所述第一显示屏显示的图像中的第一注视区域,以及所述第二目标眼在所述第二显示屏显示的图像中的第二注视区域。
综上所述,通过第一目标眼当前在第一显示屏上的注视点以及第一目标眼的视场角确定目标虚拟区域,并将该目标虚拟区域确定为第二目标眼的可视范围内的区域,以此来确定第二目标眼的可视范围,进而可以确定出第一目标眼当前看到的第一虚像以及第二目标眼当前看到的第二虚像,由此能够确定出第一目标眼在第一显示屏显示的图像中的第一注视区域以及第二目标眼在第二显示屏显示的图像中的第二注视区域。由于两个目标眼在显示屏上的注视区域由同一个目标虚拟区域确定,因而第一注视区域和第二注视区域可以准确重合,解决了相关技术中左右眼注视区域难以完全重合而导致可穿戴设备中图像的显示效果较差的问题,有效提高了可穿戴设备中图像的显示效果,提升了用户的观感体验。
可选的,第一确定模块302,用于:
根据所述注视点以及所述第一目标眼的视场角确定所述第一目标眼当前的可视范围;
将所述三维环境中位于所述第一目标眼当前的可视范围内的区域确定为所述目标虚拟区域。
可选的,第四确定模块305,用于:
根据所述目标虚拟区域以及所述第二目标眼的位置确定所述第二目标眼当前的可视范围;
将所述第二虚像位于所述第二目标眼当前的可视范围内的部分确定为所述第二目标虚像。
可选的,第二确定模块303,用于:
根据所述第一目标眼的位置、所述注视点以及所述第一目标眼的视场角确定所述第一目标眼当前的可视范围;
将所述第一虚像位于所述第一目标眼当前的可视范围内的部分确定为所述第一目标虚像。
综上所述,通过第一目标眼当前在第一显示屏上的注视点以及第一目标眼的视场角确定目标虚拟区域,并将该目标虚拟区域确定为第二目标眼的可视范围内的区域,以此来确定第二目标眼的可视范围,进而可以确定出第一目标眼当前看到的第一虚像以及第二目标眼当前看到的第二虚像,由此能够确定出第一目标眼在第一显示屏显示的图像中的第一注视区域以及第二目标眼在第二显示屏显示的图像中的第二注视区域。由于两个目标眼在显示屏上的注视区域由同一个目标虚拟区域确定,因而第一注视区域和第二注视区域可以准确重合,解决了相关技术中左右眼注视区域难以完全重合而导致可穿戴设备中图像的显示效果较差的问题,有效提高了可穿戴设备中图像的显示效果,提升了用户的观感体验。
图12示出了本发明实施例提供的另一种可穿戴设备20的结构示意图,该可穿戴设备20包括注视区域的确定装置24、图像采集组件23、第一显示组件21以及第二显示组件22。
其中,注视区域的确定装置24可以为图10所示的注视区域的确定装置30,图像采集组件23、第一显示组件21以及第二显示组件22可以参考前述介绍,本发明实施例在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本发明中,术语“第一”、“第二”、“第三”和“第四”仅用于描述目的,而不能理解为指示或暗示相对重要性。术语“多个”指两个或两个以上,除非另有明确的限定。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种注视区域的确定方法,其特征在于,所述方法应用于可穿戴设备,所述可穿戴设备包括第一显示组件以及第二显示组件,所述第一显示组件包括第一显示屏以及位于所述第一显示屏出光侧的第一透镜,所述第二显示组件包括第二显示屏以及位于所述第二显示屏出光侧的第二透镜,所述方法包括:
获取第一目标眼当前在所述第一显示屏上的注视点,所述第一目标眼为左眼或者右眼;
根据所述注视点以及所述第一目标眼的视场角确定目标虚拟区域,所述目标虚拟区域为所述可穿戴设备呈现出的三维环境中,当前位于所述第一目标眼的可视范围内的区域;
根据所述注视点以及所述第一目标眼的视场角确定第一目标虚像,所述第一目标虚像为当前所述第一显示屏显示的图像通过所述第一透镜所成的第一虚像中,位于所述第一目标眼的可视范围内的虚像;
将所述目标虚拟区域确定为所述可穿戴设备呈现出的三维环境中,当前位于所述第二目标眼的可视范围内的区域,所述第二目标眼为左眼和右眼中除所述第一目标眼之外的眼睛;
根据所述目标虚拟区域以及所述第二目标眼的位置确定第二目标虚像,所述第二目标虚像为所述第二显示屏当前显示的图像通过所述第二透镜所成的第二虚像中,位于所述第二目标眼的可视范围内的虚像;
根据所述第一目标虚像和所述第二目标虚像,确定所述第一目标眼在所述第一显示屏显示的图像中的第一注视区域,以及所述第二目标眼在所述第二显示屏显示的图像中的第二注视区域。
2.根据权利要求1所述的方法,其特征在于,所述根据所述注视点以及所述第一目标眼的视场角确定目标虚拟区域,包括:
根据所述注视点以及所述第一目标眼的视场角确定所述第一目标眼当前的可视范围;
将所述三维环境中位于所述第一目标眼当前的可视范围内的区域确定为所述目标虚拟区域。
3.根据权利要求1或2所述的方法,其特征在于,所述根据所述目标虚拟区域以及所述第二目标眼的位置确定第二目标虚像,包括:
根据所述目标虚拟区域以及所述第二目标眼的位置确定所述第二目标眼当前在所述三维环境中的可视范围;
将所述第二虚像位于所述第二目标眼当前在该三维环境中的可视范围内的部分确定为所述第二目标虚像。
4.根据权利要求1所述的方法,其特征在于,所述根据所述注视点以及所述第一目标眼的视场角确定第一目标虚像,包括:
根据所述第一目标眼的位置、所述注视点以及所述第一目标眼的视场角确定所述第一目标眼当前的可视范围;
将所述第一虚像位于所述第一目标眼当前的可视范围内的部分确定为所述第一目标虚像。
5.根据权利要求4所述的方法,其特征在于,所述根据所述第一目标虚像和所述第二目标虚像,确定所述第一目标眼在所述第一显示屏显示的图像中的第一注视区域,以及所述第二目标眼在所述第二显示屏显示的图像中的第二注视区域,包括:
获取所述第一目标虚像在所述第一显示屏显示的图像中的第一对应区域,以及所述第二目标虚像在所述第二显示屏显示的图像中的第二对应区域;
将所述第一对应区域确定为所述第一注视区域;
将所述第二对应区域确定为所述第二注视区域。
6.一种注视区域的确定装置,其特征在于,所述装置应用于可穿戴设备,所述可穿戴设备包括第一显示组件以及第二显示组件,所述第一显示组件包括第一显示屏以及位于所述第一显示屏出光侧的第一透镜,所述第二显示组件包括第二显示屏以及位于所述第二显示屏出光侧的第二透镜,所述装置包括:
获取模块,用于获取第一目标眼当前在所述第一显示屏上的注视点,所述第一目标眼为左眼或者右眼;
第一确定模块,用于根据所述注视点以及所述第一目标眼的视场角确定目标虚拟区域,所述目标虚拟区域为所述可穿戴设备呈现出的三维环境中,当前位于所述第一目标眼的可视范围内的区域;
第二确定模块,用于根据所述注视点以及所述第一目标眼的视场角确定第一目标虚像,所述第一目标虚像为当前所述第一显示屏显示的图像通过所述第一透镜所成的第一虚像中,位于所述第一目标眼的可视范围内的虚像;
第三确定模块,用于将所述目标虚拟区域确定为所述可穿戴设备呈现出的三维环境中,当前位于所述第二目标眼的可视范围内的区域,所述第二目标眼为左眼和右眼中除所述第一目标眼之外的眼睛;
第四确定模块,用于根据所述目标虚拟区域以及所述第二目标眼的位置确定第二目标虚像,所述第二目标虚像为所述第二显示屏当前显示的图像通过所述第二透镜所成的第二虚像中,位于所述第二目标眼的可视范围内的虚像;
第五确定模块,用于根据所述第一目标虚像和所述第二目标虚像,确定所述第一目标眼在所述第一显示屏显示的图像中的第一注视区域,以及所述第二目标眼在所述第二显示屏显示的图像中的第二注视区域。
7.根据权利要求6所述的装置,其特征在于,所述第一确定模块,用于:
根据所述注视点以及所述第一目标眼的视场角确定所述第一目标眼当前的可视范围;
将所述三维环境中位于所述第一目标眼当前的可视范围内的区域确定为所述目标虚拟区域。
8.根据权利要求6或7所述的装置,其特征在于,所述第四确定模块,用于:
根据所述目标虚拟区域以及所述第二目标眼的位置确定所述第二目标眼当前的可视范围;
将所述第二虚像位于所述第二目标眼当前的可视范围内的部分确定为所述第二目标虚像。
9.根据权利要求8所述的装置,其特征在于,所述第二确定模块,用于:
根据所述第一目标眼的位置、所述注视点以及所述第一目标眼的视场角确定所述第一目标眼当前的可视范围;
将所述第一虚像位于所述第一目标眼当前的可视范围内的部分确定为所述第一目标虚像。
10.一种可穿戴设备,其特征在于,所述可穿戴设备包括:注视区域的确定装置、图像采集组件、第一显示组件以及第二显示组件;
其中,所述第一显示组件包括第一显示屏以及位于所述第一显示屏出光侧的第一透镜,所述第二显示组件包括第二显示屏以及位于所述第二显示屏出光侧的第二透镜;
所述注视区域的确定装置为权利要求6至9任一所述的装置。
CN201910333506.7A 2019-04-24 2019-04-24 注视区域的确定方法、装置及可穿戴设备 Active CN109901290B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910333506.7A CN109901290B (zh) 2019-04-24 2019-04-24 注视区域的确定方法、装置及可穿戴设备
PCT/CN2020/080961 WO2020215960A1 (zh) 2019-04-24 2020-03-24 注视区域的确定方法、装置及可穿戴设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910333506.7A CN109901290B (zh) 2019-04-24 2019-04-24 注视区域的确定方法、装置及可穿戴设备

Publications (2)

Publication Number Publication Date
CN109901290A true CN109901290A (zh) 2019-06-18
CN109901290B CN109901290B (zh) 2021-05-14

Family

ID=66956250

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910333506.7A Active CN109901290B (zh) 2019-04-24 2019-04-24 注视区域的确定方法、装置及可穿戴设备

Country Status (2)

Country Link
CN (1) CN109901290B (zh)
WO (1) WO2020215960A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110347265A (zh) * 2019-07-22 2019-10-18 北京七鑫易维科技有限公司 渲染图像的方法及装置
WO2020215960A1 (zh) * 2019-04-24 2020-10-29 京东方科技集团股份有限公司 注视区域的确定方法、装置及可穿戴设备
CN113467619A (zh) * 2021-07-21 2021-10-01 腾讯科技(深圳)有限公司 画面显示方法、装置和存储介质及电子设备

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11474598B2 (en) 2021-01-26 2022-10-18 Huawei Technologies Co., Ltd. Systems and methods for gaze prediction on touch-enabled devices using touch interactions

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130335302A1 (en) * 2012-06-18 2013-12-19 Randall T. Crane Selective illumination
CN105425399A (zh) * 2016-01-15 2016-03-23 中意工业设计(湖南)有限责任公司 一种根据人眼视觉特点的头戴设备用户界面呈现方法
CN106233187A (zh) * 2014-04-25 2016-12-14 微软技术许可有限责任公司 具有调光面板的显示设备
CN107797280A (zh) * 2016-08-31 2018-03-13 乐金显示有限公司 个人沉浸式显示装置及其驱动方法
CN109031667A (zh) * 2018-09-01 2018-12-18 哈尔滨工程大学 一种虚拟现实眼镜图像显示区域横向边界定位方法
US20190018483A1 (en) * 2017-07-17 2019-01-17 Thalmic Labs Inc. Dynamic calibration systems and methods for wearable heads-up displays

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014130584A1 (en) * 2013-02-19 2014-08-28 Reald Inc. Binocular fixation imaging method and apparatus
JP6509101B2 (ja) * 2015-12-09 2019-05-08 Kddi株式会社 眼鏡状の光学シースルー型の両眼のディスプレイにオブジェクトを表示する画像表示装置、プログラム及び方法
US10429647B2 (en) * 2016-06-10 2019-10-01 Facebook Technologies, Llc Focus adjusting virtual reality headset
CN108369744B (zh) * 2018-02-12 2021-08-24 香港应用科技研究院有限公司 通过双目单应性映射的3d注视点检测
CN109087260A (zh) * 2018-08-01 2018-12-25 北京七鑫易维信息技术有限公司 一种图像处理方法及装置
CN109901290B (zh) * 2019-04-24 2021-05-14 京东方科技集团股份有限公司 注视区域的确定方法、装置及可穿戴设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130335302A1 (en) * 2012-06-18 2013-12-19 Randall T. Crane Selective illumination
CN106233187A (zh) * 2014-04-25 2016-12-14 微软技术许可有限责任公司 具有调光面板的显示设备
CN105425399A (zh) * 2016-01-15 2016-03-23 中意工业设计(湖南)有限责任公司 一种根据人眼视觉特点的头戴设备用户界面呈现方法
CN107797280A (zh) * 2016-08-31 2018-03-13 乐金显示有限公司 个人沉浸式显示装置及其驱动方法
US20190018483A1 (en) * 2017-07-17 2019-01-17 Thalmic Labs Inc. Dynamic calibration systems and methods for wearable heads-up displays
CN109031667A (zh) * 2018-09-01 2018-12-18 哈尔滨工程大学 一种虚拟现实眼镜图像显示区域横向边界定位方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020215960A1 (zh) * 2019-04-24 2020-10-29 京东方科技集团股份有限公司 注视区域的确定方法、装置及可穿戴设备
CN110347265A (zh) * 2019-07-22 2019-10-18 北京七鑫易维科技有限公司 渲染图像的方法及装置
CN113467619A (zh) * 2021-07-21 2021-10-01 腾讯科技(深圳)有限公司 画面显示方法、装置和存储介质及电子设备
CN113467619B (zh) * 2021-07-21 2023-07-14 腾讯科技(深圳)有限公司 画面显示方法、装置和存储介质及电子设备

Also Published As

Publication number Publication date
WO2020215960A1 (zh) 2020-10-29
CN109901290B (zh) 2021-05-14

Similar Documents

Publication Publication Date Title
US11632537B2 (en) Method and apparatus for obtaining binocular panoramic image, and storage medium
CN106791784B (zh) 一种虚实重合的增强现实显示方法和装置
CN109901290A (zh) 注视区域的确定方法、装置及可穿戴设备
US11577159B2 (en) Realistic virtual/augmented/mixed reality viewing and interactions
CN106796344B (zh) 锁定在感兴趣对象上的放大图像的***、布置和方法
US20160267720A1 (en) Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience
CN108292489A (zh) 信息处理装置和图像生成方法
CN105303557B (zh) 一种可透视型智能眼镜及其透视方法
JP2017199379A (ja) 追従表示システム、追従表示プログラム、および追従表示方法、ならびにそれらを用いたウェアラブル機器、ウェアラブル機器用の追従表示プログラム、およびウェアラブル機器の操作方法
CN106327584B (zh) 一种用于虚拟现实设备的图像处理方法及装置
TWI669635B (zh) 用於顯示彈幕的方法、裝置以及非揮發性電腦可讀儲存介質
CN109074681A (zh) 信息处理装置、信息处理方法和程序
US20170076475A1 (en) Display Control Method and Display Control Apparatus
CN110708533B (zh) 基于增强现实的视觉辅助方法及智能穿戴设备
CN106959759A (zh) 一种数据处理方法及装置
CN108124150B (zh) 虚拟现实头戴显示设备及通过其观察真实场景的方法
CN106023241A (zh) 影像处理装置、影像处理方法及影像处理***
CN108398787B (zh) 增强现实显示设备、方法和增强现实眼镜
CN105959665A (zh) 一种针对于虚拟现实设备的全景3d视频生成方法
CN111556305A (zh) 图像处理方法、vr设备、终端、显示***和计算机可读存储介质
CN103517060A (zh) 一种终端设备的显示控制方法及装置
CN107065164B (zh) 图像展示方法及装置
CN105138130B (zh) 异地同场景内信息交流指示方法及***
JP2017191546A (ja) 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法
US10255676B2 (en) Methods and systems for simulating the effects of vision defects

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant