CN107272904B - 一种图像显示方法及电子设备 - Google Patents

一种图像显示方法及电子设备 Download PDF

Info

Publication number
CN107272904B
CN107272904B CN201710509019.2A CN201710509019A CN107272904B CN 107272904 B CN107272904 B CN 107272904B CN 201710509019 A CN201710509019 A CN 201710509019A CN 107272904 B CN107272904 B CN 107272904B
Authority
CN
China
Prior art keywords
image display
user
eye movement
display area
electronic equipment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710509019.2A
Other languages
English (en)
Other versions
CN107272904A (zh
Inventor
吴梦
郑效盼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN201710509019.2A priority Critical patent/CN107272904B/zh
Publication of CN107272904A publication Critical patent/CN107272904A/zh
Priority to US16/021,565 priority patent/US20190004600A1/en
Application granted granted Critical
Publication of CN107272904B publication Critical patent/CN107272904B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/011Head-up displays characterised by optical features comprising device for correcting geometrical aberrations, distortion
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明公开了一种图像显示方法,应用于电子设备,电子设备包括图像显示区域;方法包括:获取佩戴电子设备的用户的眼动特征信息;基于眼动特征信息确定目标位置;基于目标位置将图像显示区域的图像显示位置由第一位置调整至第二位置。本发明能够根据用户眼睛注视点的变化来显示不同的内容,提升了用户体验。本发明还公开了一种电子设备。

Description

一种图像显示方法及电子设备
技术领域
本发明涉及电子技术领域,尤其涉及一种图像显示方法及电子设备。
背景技术
随着电子技术的不断发展,AR(Augmented Reality,增强现实)设备的应用也越来越广泛。目前,由于现有的AR设备视场角有限,显示内容基本固定在镜片的某一位置,当用户需要观看不同的内容时,需要通过频繁摇头、点头等动作调整投射的画面内容,以显示不同的内容。由此可以看出,现有技术无法根据用户眼睛注视点的变化来显示不同的内容,不符合人类看东西的习惯,用户体验差。
发明内容
有鉴于此,本发明提供一种图像显示方法及电子设备,能够根据用户眼睛注视点的变化来显示不同的内容,提升了用户体验。
本发明提供了一种图像显示方法,其特征在于,应用于电子设备,所述电子设备包括图像显示区域;所述方法包括:
获取佩戴所述电子设备的用户的眼动特征信息;
基于所述眼动特征信息确定目标位置;
基于所述目标位置将所述图像显示区域的图像显示位置由第一位置调整至第二位置。
优选地,所述方法还包括:
确定待显示图像内容;
将所述待显示图像内容显示在所述图像显示区域的第二位置。
优选地,所述眼动特征信息包括用户眼睛的注视位置,所述基于所述眼动特征信息确定目标位置包括:
在预设时间段内获取用户眼睛的注视位置;
判断用户眼睛视线在所述注视位置停留的时间是否大于预设时间阈值;
当用户眼睛视线在所述注视位置停留的时间大于预设时间阈值时,将所述注视位置确定为目标位置。
优选地,所述电子设备包括:发光部件和折射反射部件;所述基于所述目标位置将所述图像显示区域的图像显示位置由第一位置调整至第二位置包括:
调整所述发光部件和折射反射部件,获取所述电子设备透镜的间隙、方向和曲率;
基于所述透镜的间隙、方向和曲率将所述图像显示区域的图像显示位置由第一位置调整至第二位置。
优选地,所述确定待显示图像内容包括:
获取所述电子设备的位置角度信息;
基于所述电子设备的位置角度信息以及所述目标位置确定待显示图像内容。
一种电子设备,所述电子设备包括图像显示区域;所述电子设备包括:
输入接口,用于接收佩戴所述电子设备的用户的眼动特征信息;
第一处理器,用于基于所述眼动特征信息确定目标位置;
显示装置,用于基于所述目标位置将所述图像显示区域的图像显示位置由第一位置调整至第二位置。
优选地,所述电子设备还包括:
第二处理器,用于确定待显示图像内容;
所述显示装置,还用于将所述待显示图像内容显示在所述图像显示区域的第二位置。
优选地,所述眼动特征信息包括用户眼睛的注视位置,所述第一处理器包括:
第一获取模块,用于在预设时间段内获取用户眼睛的注视位置;
判断模块,用于判断用户眼睛视线在所述注视位置停留的时间是否大于预设时间阈值;
第一确定模块,用于当用户眼睛视线在所述注视位置停留的时间大于预设时间阈值时,将所述注视位置确定为目标位置。
优选地,所述电子设备包括:发光部件和折射反射部件;所述显示装置包括:
第二获取模块,用于调整所述发光部件和折射反射部件,获取所述电子设备透镜的间隙、方向和曲率;
调整模块,用于基于所述透镜的间隙、方向和曲率将所述图像显示区域的图像显示位置由第一位置调整至第二位置。
优选地,所述第二处理器包括:
第三获取模块,用于获取所述电子设备的位置角度信息;
第二确定模块,用于基于所述电子设备的位置角度信息以及所述目标位置确定待显示图像内容。
从上述技术方案可以看出,本申请公开的一种图像显示方法,应用于电子设备,首先获取佩戴电子设备的用户的眼动特征信息,根据眼动特征信息确定目标位置,然后根据目标位置将图像显示区域的图像显示位置由第一位置调整至第二位置,能够根据用户眼睛注视点的变化将图像显示在不同的位置,符合人类看东西的习惯,提升了用户体验。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明公开的一种图像显示方法实施例1的方法流程图;
图2为本发明公开的一种图像显示方法实施例2的方法流程图;
图3为本发明公开的一种图像显示方法实施例3的方法流程图;
图4为本发明公开的一种图像显示方法实施例4的方法流程图;
图5为本发明公开的一种图像显示方法实施例5的方法流程图;
图6为本发明公开的一种电子设备实施例1的结构示意图;
图7为本发明公开的一种电子设备实施例2的结构示意图;
图8为本发明公开的一种电子设备实施例3的结构示意图;
图9为本发明公开的一种电子设备实施例4的结构示意图;
图10为本发明公开的一种电子设备实施例5的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,为本发明公开的一种图像显示方法实施例1的方法流程图,所述方法应用于电子设备,其中,所述电子设备可以为可穿戴的智能眼镜;所述方法可以包括以下步骤:
S101、获取佩戴电子设备的用户的眼动特征信息;
当需要对电子设备显示图像的显示方式进行调整时,首先获取佩戴电子设备的用户的眼动特征信息,其中,在获取用户的眼动特征信息时,可以通过电子设备上的输入接口获取眼动检测设备检测到的用户的眼动特征信息。其中,眼动检测设备为可以获得用户眼睛注视位置、眼跳信息等的设备。例如,眼睛注视位置的判断可以使用一种光源对用户的眼睛进行照射使其产生明显的反射,并使用一种摄像机采集带有这些反射效果的眼睛的图像。然后使用摄像机采集到的这些图像来识别光源在角膜和瞳孔上的反射,通过角膜和瞳孔反射之间的角度计算出眼动的向量,然后将此向量的方向与其他发射的集合特征结合计算出视线的方向。
S102、基于眼动特征信息确定目标位置;
当获取到佩戴电子设备的用户的眼动特征信息后,根据获取到的眼动特征信息确定目标位置。其中,所述的目标位置可以为用户眼睛注视到的位置。
S103、基于目标位置将图像显示区域的图像显示位置由第一位置调整至第二位置。
当根据眼动特征信息确定目标位置后,根据确定的目标位置,将电子设备的图像显示区域的图像显示位置由第一位置调整至第二位置;其中,所述的第二位置为与目标位置相匹配的位置。需要说明是,当与目标位置相匹配的位置为第一位置时,此时第一位置和第二位置为图像显示区域中的同一位置。
综上所述,在上述实施例中,当需要对电子设备显示图像的显示方式进行调整时,首先获取佩戴电子设备的用户的眼动特征信息,根据眼动特征信息确定目标位置,然后根据目标位置将图像显示区域的图像显示位置由第一位置调整至第二位置,能够根据用户眼睛注视点的变化将图像显示在不同的位置,符合人类看东西的习惯,提升了用户体验。
如图2所示,为本发明公开的一种图像显示方法实施例2的方法流程图,所述方法应用于电子设备,其中,所述电子设备可以为可穿戴的智能眼镜;所述方法可以包括以下步骤:
S201、获取佩戴电子设备的用户的眼动特征信息;
当需要对电子设备显示图像的显示方式进行调整时,首先获取佩戴电子设备的用户的眼动特征信息,其中,在获取用户的眼动特征信息时,可以通过电子设备上的输入接口获取眼动检测设备检测到的用户的眼动特征信息。其中,眼动检测设备为可以获得用户眼睛注视位置、眼跳信息等的设备。例如,眼睛注视位置的判断可以使用一种光源对用户的眼睛进行照射使其产生明显的反射,并使用一种摄像机采集带有这些反射效果的眼睛的图像。然后使用摄像机采集到的这些图像来识别光源在角膜和瞳孔上的反射,通过角膜和瞳孔反射之间的角度计算出眼动的向量,然后将此向量的方向与其他发射的集合特征结合计算出视线的方向。
S202、基于眼动特征信息确定目标位置;
当获取到佩戴电子设备的用户的眼动特征信息后,根据获取到的眼动特征信息确定目标位置。其中,所述的目标位置可以为用户眼睛注视到的位置。
S203、基于目标位置将图像显示区域的图像显示位置由第一位置调整至第二位置;
当根据眼动特征信息确定目标位置后,根据确定的目标位置,将电子设备的图像显示区域的图像显示位置由第一位置调整至第二位置;其中,所述的第二位置为与目标位置相匹配的位置。需要说明是,当与目标位置相匹配的位置为第一位置时,此时第一位置和第二位置为图像显示区域中的同一位置。
S204、确定待显示图像内容;
当根据目标位置将图像显示区域的图像显示位置由第一位置调整至第二位置后,还可以进一步确定需要显示在第二位置的待显示图像内容。其中,所述待显示图像内容即为用户想在图像显示区域第二位置观看到的图像内容。
S205、将待显示图像内容显示在图像显示区域的第二位置。
当确定了待显示图像内容后,将待显示图像内容显示在图像显示区域的第二位置。
综上所述,本实施例在上述实施例1的基础上进一步确定待显示图像内容,并将确定的待显示图像内容显示在电子设备图像显示区域的第二位置,实现用户在电子设备图像显示区域的第二位置观看待显示图像内容。
如图3所示,为本发明公开的一种图像显示方法实施例3的方法流程图,所述方法应用于电子设备,其中,所述电子设备可以为可穿戴的智能眼镜;所述方法可以包括以下步骤:
S301、获取佩戴电子设备的用户的眼动特征信息,其中眼动特征信息包括用户眼睛的注视位置;
当需要对电子设备显示图像的显示方式进行调整时,首先获取佩戴电子设备的用户的眼动特征信息,其中,在获取用户的眼动特征信息时,可以通过电子设备上的输入接口获取眼动检测设备检测到的用户的眼动特征信息。其中,眼动检测设备为可以获得用户眼睛注视位置、眼跳信息等的设备。例如,眼睛注视位置的判断可以使用一种光源对用户的眼睛进行照射使其产生明显的反射,并使用一种摄像机采集带有这些反射效果的眼睛的图像。然后使用摄像机采集到的这些图像来识别光源在角膜和瞳孔上的反射,通过角膜和瞳孔反射之间的角度计算出眼动的向量,然后将此向量的方向与其他发射的集合特征结合计算出视线的方向。
S302、在预设时间段内获取用户眼睛的注视位置;
当获取到佩戴电子设备的用户的眼动特征信息后,进一步在预设的时间段内获取用户眼睛的注视位置。例如,在10秒内获取用户眼睛的注视位置。其中,所述的预设时间段可根据用户的实际需求进行灵活的设定。
S303、判断用户眼睛视线在注视位置停留的时间是否大于预设时间阈值;
当在预设时间段内获取到用户眼睛的注视位置后,进一步判断用户眼睛视线在注视位置的停留时间是否大于预设时间阈值。例如,用户在预设时间段内,用户眼睛的注视位置有位置A和位置B,进一步分别判断用户眼睛视线在位置A和位置B的停留时间是否大于预设时间阈值。其中,所述的预设时间阈值可以根据用户的实际需求进行灵活的设定,例如,5秒。
S304、当用户眼睛视线在注视位置停留的时间大于预设时间阈值时,将注视位置确定为目标位置;
当判断用户眼睛视线在注视位置停留的时间大于预设时间阈值时,将注视位置确定为目标位置。例如,当判断用户眼睛视线在位置A的停留时间大于预设时间阈值时,将位置A确定为目标位置。
S305、基于眼动特征信息确定目标位置;
当获取到佩戴电子设备的用户的眼动特征信息后,根据获取到的眼动特征信息确定目标位置。其中,所述的目标位置可以为用户眼睛注视到的位置。
S306、基于目标位置将图像显示区域的图像显示位置由第一位置调整至第二位置。
当根据眼动特征信息确定目标位置后,根据确定的目标位置,将电子设备的图像显示区域的图像显示位置由第一位置调整至第二位置;其中,所述的第二位置为与目标位置相匹配的位置。需要说明是,当与目标位置相匹配的位置为第一位置时,此时第一位置和第二位置为图像显示区域中的同一位置。
综上所述,本实施例在实施例1的基础上进一步通过在预设时间段内获取用户眼睛的注视位置,并判断用户眼睛视线在注视位置停留的时间是否大于预设时间阈值,当用户眼睛视线在注视位置停留的时间大于预设时间阈值时,将注视位置确定为目标位置,通过设定注视位置停留的时间阈值能够更加有效的确定目标位置。
如图4所示,为本发明公开的一种图像显示方法实施例3的方法流程图,所述方法应用于电子设备,电子设备包括:发光部件和折射反射部件;其中,所述电子设备可以为可穿戴的智能眼镜;所述方法可以包括以下步骤:
S401、获取佩戴电子设备的用户的眼动特征信息;
当需要对电子设备显示图像的显示方式进行调整时,首先获取佩戴电子设备的用户的眼动特征信息,其中,在获取用户的眼动特征信息时,可以通过电子设备上的输入接口获取眼动检测设备检测到的用户的眼动特征信息。其中,眼动检测设备为可以获得用户眼睛注视位置、眼跳信息等的设备。例如,眼睛注视位置的判断可以使用一种光源对用户的眼睛进行照射使其产生明显的反射,并使用一种摄像机采集带有这些反射效果的眼睛的图像。然后使用摄像机采集到的这些图像来识别光源在角膜和瞳孔上的反射,通过角膜和瞳孔反射之间的角度计算出眼动的向量,然后将此向量的方向与其他发射的集合特征结合计算出视线的方向。
S402、基于眼动特征信息确定目标位置;
当获取到佩戴电子设备的用户的眼动特征信息后,根据获取到的眼动特征信息确定目标位置。其中,所述的目标位置可以为用户眼睛注视到的位置。
S403、调整发光部件和折射反射部件,获取电子设备透镜的间隙、方向和曲率;
当确定了目标位置后,根据确定的目标位置调整电子设备上的发光部件和折射发射部件,进而获取电子设备透镜的间隙、方向和曲率。
S404、基于透镜的间隙、方向和曲率将所述图像显示区域的图像显示位置由第一位置调整至第二位置。
通过获取到的电子设备透镜的间隙、方向和曲率将电子设备图像显示区域的图像显示位置由第一位置调整至第二位置。
综上所述,本实施例在实施例1的基础上,具体的通过调整发光部件和折射反射部件,获取电子设备透镜的间隙、方向和曲率,并基于透镜的间隙、方向和曲率将图像显示区域的图像显示位置由第一位置调整至第二位置。
如图5所示,为本发明公开的一种图像显示方法实施例5的方法流程图,所述方法应用于电子设备,其中,所述电子设备可以为可穿戴的智能眼镜;所述方法可以包括以下步骤:
S501、获取佩戴电子设备的用户的眼动特征信息;
当需要对电子设备显示图像的显示方式进行调整时,首先获取佩戴电子设备的用户的眼动特征信息,其中,在获取用户的眼动特征信息时,可以通过电子设备上的输入接口获取眼动检测设备检测到的用户的眼动特征信息。其中,眼动检测设备为可以获得用户眼睛注视位置、眼跳信息等的设备。例如,眼睛注视位置的判断可以使用一种光源对用户的眼睛进行照射使其产生明显的反射,并使用一种摄像机采集带有这些反射效果的眼睛的图像。然后使用摄像机采集到的这些图像来识别光源在角膜和瞳孔上的反射,通过角膜和瞳孔反射之间的角度计算出眼动的向量,然后将此向量的方向与其他发射的集合特征结合计算出视线的方向。
S502、基于眼动特征信息确定目标位置;
当获取到佩戴电子设备的用户的眼动特征信息后,根据获取到的眼动特征信息确定目标位置。其中,所述的目标位置可以为用户眼睛注视到的位置。
S503、基于目标位置将图像显示区域的图像显示位置由第一位置调整至第二位置;
当根据眼动特征信息确定目标位置后,根据确定的目标位置,将电子设备的图像显示区域的图像显示位置由第一位置调整至第二位置;其中,所述的第二位置为与目标位置相匹配的位置。需要说明是,当与目标位置相匹配的位置为第一位置时,此时第一位置和第二位置为图像显示区域中的同一位置。
S504、获取电子设备的位置角度信息;
S505、基于电子设备的位置角度信息以及目标位置确定待显示图像内容;
当根据目标位置将图像显示区域的图像显示位置由第一位置调整至第二位置后,还可以进一步确定需要显示在第二位置的待显示图像内容。在确定需要显示在第二位置的待显示图像内容时,可以通过获取电子设备的位置角度信息,例如电子设备的倾斜角度等。然后再根据电子设备的位置角度信息以及目标位置确定出待显示图像内容。
S506、将待显示图像内容显示在图像显示区域的第二位置。
当确定了待显示图像内容后,将待显示图像内容显示在图像显示区域的第二位置。
综上所述,本实施例在实施例2的基础上,进一步获取电子设备的位置角度信息,结果电子设备的具***置以及目标位置来共同确定待显示图像内容,以达到更加理想的视觉效果。
如图6所示,为本发明公开的一种电子设备实施例1的结构示意图,其中,所述电子设备可以为可穿戴的智能眼镜;所述电子设备可以包括:
输入接口601,用于接收佩戴电子设备的用户的眼动特征信息;
当需要对电子设备显示图像的显示方式进行调整时,首先获取佩戴电子设备的用户的眼动特征信息,其中,在获取用户的眼动特征信息时,可以通过电子设备上的输入接口获取眼动检测设备检测到的用户的眼动特征信息。其中,眼动检测设备为可以获得用户眼睛注视位置、眼跳信息等的设备。例如,眼睛注视位置的判断可以使用一种光源对用户的眼睛进行照射使其产生明显的反射,并使用一种摄像机采集带有这些反射效果的眼睛的图像。然后使用摄像机采集到的这些图像来识别光源在角膜和瞳孔上的反射,通过角膜和瞳孔反射之间的角度计算出眼动的向量,然后将此向量的方向与其他发射的集合特征结合计算出视线的方向。
第一处理器602,用于基于眼动特征信息确定目标位置;
当获取到佩戴电子设备的用户的眼动特征信息后,根据获取到的眼动特征信息确定目标位置。其中,所述的目标位置可以为用户眼睛注视到的位置。
显示装置603,用于基于目标位置将图像显示区域的图像显示位置由第一位置调整至第二位置。
当根据眼动特征信息确定目标位置后,根据确定的目标位置,将电子设备的图像显示区域的图像显示位置由第一位置调整至第二位置;其中,所述的第二位置为与目标位置相匹配的位置。需要说明是,当与目标位置相匹配的位置为第一位置时,此时第一位置和第二位置为图像显示区域中的同一位置。
综上所述,在上述实施例中,当需要对电子设备显示图像的显示方式进行调整时,首先获取佩戴电子设备的用户的眼动特征信息,根据眼动特征信息确定目标位置,然后根据目标位置将图像显示区域的图像显示位置由第一位置调整至第二位置,能够根据用户眼睛注视点的变化将图像显示在不同的位置,符合人类看东西的习惯,提升了用户体验。
如图7所示,为本发明公开的一种电子设备实施例2的结构示意图,其中,所述电子设备可以为可穿戴的智能眼镜;所述电子设备可以包括:
输入接口701,用于接收佩戴电子设备的用户的眼动特征信息;
当需要对电子设备显示图像的显示方式进行调整时,首先获取佩戴电子设备的用户的眼动特征信息,其中,在获取用户的眼动特征信息时,可以通过电子设备上的输入接口获取眼动检测设备检测到的用户的眼动特征信息。其中,眼动检测设备为可以获得用户眼睛注视位置、眼跳信息等的设备。例如,眼睛注视位置的判断可以使用一种光源对用户的眼睛进行照射使其产生明显的反射,并使用一种摄像机采集带有这些反射效果的眼睛的图像。然后使用摄像机采集到的这些图像来识别光源在角膜和瞳孔上的反射,通过角膜和瞳孔反射之间的角度计算出眼动的向量,然后将此向量的方向与其他发射的集合特征结合计算出视线的方向。
第一处理器702,用于基于眼动特征信息确定目标位置;
当获取到佩戴电子设备的用户的眼动特征信息后,根据获取到的眼动特征信息确定目标位置。其中,所述的目标位置可以为用户眼睛注视到的位置。
显示装置703,用于基于目标位置将图像显示区域的图像显示位置由第一位置调整至第二位置;
当根据眼动特征信息确定目标位置后,根据确定的目标位置,将电子设备的图像显示区域的图像显示位置由第一位置调整至第二位置;其中,所述的第二位置为与目标位置相匹配的位置。需要说明是,当与目标位置相匹配的位置为第一位置时,此时第一位置和第二位置为图像显示区域中的同一位置。
第二处理器704,用于确定待显示图像内容;
当根据目标位置将图像显示区域的图像显示位置由第一位置调整至第二位置后,还可以进一步确定需要显示在第二位置的待显示图像内容。其中,所述待显示图像内容即为用户想在图像显示区域第二位置观看到的图像内容。
显示装置703,还用于将待显示图像内容显示在图像显示区域的第二位置。
当确定了待显示图像内容后,将待显示图像内容显示在图像显示区域的第二位置。
综上所述,本实施例在上述实施例1的基础上进一步确定待显示图像内容,并将确定的待显示图像内容显示在电子设备图像显示区域的第二位置,实现用户在电子设备图像显示区域的第二位置观看待显示图像内容。
如图8所示,为本发明公开的一种电子设备实施例3的结构示意图,其中,所述电子设备可以为可穿戴的智能眼镜;所述电子设备可以包括:
输入接口801,用于接收佩戴电子设备的用户的眼动特征信息,其中眼动特征信息包括用户眼睛的注视位置;
当需要对电子设备显示图像的显示方式进行调整时,首先获取佩戴电子设备的用户的眼动特征信息,其中,在获取用户的眼动特征信息时,可以通过电子设备上的输入接口获取眼动检测设备检测到的用户的眼动特征信息。其中,眼动检测设备为可以获得用户眼睛注视位置、眼跳信息等的设备。例如,眼睛注视位置的判断可以使用一种光源对用户的眼睛进行照射使其产生明显的反射,并使用一种摄像机采集带有这些反射效果的眼睛的图像。然后使用摄像机采集到的这些图像来识别光源在角膜和瞳孔上的反射,通过角膜和瞳孔反射之间的角度计算出眼动的向量,然后将此向量的方向与其他发射的集合特征结合计算出视线的方向。
第一获取模块802,用于在预设时间段内获取用户眼睛的注视位置;
当获取到佩戴电子设备的用户的眼动特征信息后,进一步在预设的时间段内获取用户眼睛的注视位置。例如,在10秒内获取用户眼睛的注视位置。其中,所述的预设时间段可根据用户的实际需求进行灵活的设定。
判断模块803,用于判断用户眼睛视线在注视位置停留的时间是否大于预设时间阈值;
当在预设时间段内获取到用户眼睛的注视位置后,进一步判断用户眼睛视线在注视位置的停留时间是否大于预设时间阈值。例如,用户在预设时间段内,用户眼睛的注视位置有位置A和位置B,进一步分别判断用户眼睛视线在位置A和位置B的停留时间是否大于预设时间阈值。其中,所述的预设时间阈值可以根据用户的实际需求进行灵活的设定,例如,5秒。
第一确定模块804,用于当用户眼睛视线在注视位置停留的时间大于预设时间阈值时,将注视位置确定为目标位置;
当判断用户眼睛视线在注视位置停留的时间大于预设时间阈值时,将注视位置确定为目标位置。例如,当判断用户眼睛视线在位置A的停留时间大于预设时间阈值时,将位置A确定为目标位置。
第一处理器805,用于基于眼动特征信息确定目标位置;
当获取到佩戴电子设备的用户的眼动特征信息后,根据获取到的眼动特征信息确定目标位置。其中,所述的目标位置可以为用户眼睛注视到的位置。
显示装置806,用于基于目标位置将图像显示区域的图像显示位置由第一位置调整至第二位置。
当根据眼动特征信息确定目标位置后,根据确定的目标位置,将电子设备的图像显示区域的图像显示位置由第一位置调整至第二位置;其中,所述的第二位置为与目标位置相匹配的位置。需要说明是,当与目标位置相匹配的位置为第一位置时,此时第一位置和第二位置为图像显示区域中的同一位置。
综上所述,本实施例在实施例1的基础上进一步通过在预设时间段内获取用户眼睛的注视位置,并判断用户眼睛视线在注视位置停留的时间是否大于预设时间阈值,当用户眼睛视线在注视位置停留的时间大于预设时间阈值时,将注视位置确定为目标位置,通过设定注视位置停留的时间阈值能够更加有效的确定目标位置。
如图9所示,为本发明公开的一种电子设备实施例4的结构示意图,电子设备包括:发光部件和折射反射部件;其中,所述电子设备可以为可穿戴的智能眼镜;所述电子设备可以包括:
输入接口901,用于佩戴电子设备的用户的眼动特征信息;
当需要对电子设备显示图像的显示方式进行调整时,首先获取佩戴电子设备的用户的眼动特征信息,其中,在获取用户的眼动特征信息时,可以通过电子设备上的输入接口获取眼动检测设备检测到的用户的眼动特征信息。其中,眼动检测设备为可以获得用户眼睛注视位置、眼跳信息等的设备。例如,眼睛注视位置的判断可以使用一种光源对用户的眼睛进行照射使其产生明显的反射,并使用一种摄像机采集带有这些反射效果的眼睛的图像。然后使用摄像机采集到的这些图像来识别光源在角膜和瞳孔上的反射,通过角膜和瞳孔反射之间的角度计算出眼动的向量,然后将此向量的方向与其他发射的集合特征结合计算出视线的方向。
第一处理器902,用于基于眼动特征信息确定目标位置;
当获取到佩戴电子设备的用户的眼动特征信息后,根据获取到的眼动特征信息确定目标位置。其中,所述的目标位置可以为用户眼睛注视到的位置。
第二获取模块903,用于调整发光部件和折射反射部件,获取电子设备透镜的间隙、方向和曲率;
当确定了目标位置后,根据确定的目标位置调整电子设备上的发光部件和折射发射部件,进而获取电子设备透镜的间隙、方向和曲率。
调整模块904,用于基于透镜的间隙、方向和曲率将所述图像显示区域的图像显示位置由第一位置调整至第二位置。
通过获取到的电子设备透镜的间隙、方向和曲率将电子设备图像显示区域的图像显示位置由第一位置调整至第二位置。
综上所述,本实施例在实施例1的基础上,具体的通过调整发光部件和折射反射部件,获取电子设备透镜的间隙、方向和曲率,并基于透镜的间隙、方向和曲率将图像显示区域的图像显示位置由第一位置调整至第二位置。
如图10所示,为本发明公开的一种电子设备实施例5的结构示意图,其中,所述电子设备可以为可穿戴的智能眼镜;所述电子设备可以包括:
输入接口1001,用于佩戴电子设备的用户的眼动特征信息;
当需要对电子设备显示图像的显示方式进行调整时,首先获取佩戴电子设备的用户的眼动特征信息,其中,在获取用户的眼动特征信息时,可以通过电子设备上的输入接口获取眼动检测设备检测到的用户的眼动特征信息。其中,眼动检测设备为可以获得用户眼睛注视位置、眼跳信息等的设备。例如,眼睛注视位置的判断可以使用一种光源对用户的眼睛进行照射使其产生明显的反射,并使用一种摄像机采集带有这些反射效果的眼睛的图像。然后使用摄像机采集到的这些图像来识别光源在角膜和瞳孔上的反射,通过角膜和瞳孔反射之间的角度计算出眼动的向量,然后将此向量的方向与其他发射的集合特征结合计算出视线的方向。
第一处理器1002,用于基于眼动特征信息确定目标位置;
当获取到佩戴电子设备的用户的眼动特征信息后,根据获取到的眼动特征信息确定目标位置。其中,所述的目标位置可以为用户眼睛注视到的位置。
显示装置1003,用于基于目标位置将图像显示区域的图像显示位置由第一位置调整至第二位置;
当根据眼动特征信息确定目标位置后,根据确定的目标位置,将电子设备的图像显示区域的图像显示位置由第一位置调整至第二位置;其中,所述的第二位置为与目标位置相匹配的位置。需要说明是,当与目标位置相匹配的位置为第一位置时,此时第一位置和第二位置为图像显示区域中的同一位置。
第三获取模块1004,用于获取电子设备的位置角度信息;
第二确定模块1005,用于基于电子设备的位置角度信息以及目标位置确定待显示图像内容;
当根据目标位置将图像显示区域的图像显示位置由第一位置调整至第二位置后,还可以进一步确定需要显示在第二位置的待显示图像内容。在确定需要显示在第二位置的待显示图像内容时,可以通过获取电子设备的位置角度信息,例如电子设备的倾斜角度等。然后再根据电子设备的位置角度信息以及目标位置确定出待显示图像内容。
显示装置1003,还用于将待显示图像内容显示在图像显示区域的第二位置。
当确定了待显示图像内容后,将待显示图像内容显示在图像显示区域的第二位置。
综上所述,本实施例在实施例2的基础上,进一步获取电子设备的位置角度信息,结果电子设备的具***置以及目标位置来共同确定待显示图像内容,以达到更加理想的视觉效果。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (6)

1.一种图像显示方法,其特征在于,应用于电子设备,所述电子设备包括图像显示区域;所述方法包括:
获取佩戴所述电子设备的用户的眼动特征信息;
基于所述眼动特征信息确定目标位置;
基于所述目标位置将所述图像显示区域的图像显示位置由第一位置调整至第二位置,其中,所述第二位置为与目标位置相匹配的位置,以根据用户眼睛注视点的变化将所述图像显示区域的图像显示在所述图像显示区域的不同位置;
确定待显示图像内容;所述待显示图像内容为用户需要在图像显示区域的第二位置观看到的图像内容;
将所述待显示图像内容显示在所述图像显示区域的第二位置;
所述电子设备包括:发光部件和折射反射部件;所述基于所述目标位置将所述图像显示区域的图像显示位置由第一位置调整至第二位置包括:
调整所述发光部件和折射反射部件,获取所述电子设备透镜的间隙、方向和曲率;
基于所述透镜的间隙、方向和曲率将所述图像显示区域的图像显示位置由第一位置调整至第二位置。
2.根据权利要求1所述的方法,其特征在于,所述眼动特征信息包括用户眼睛的注视位置,所述基于所述眼动特征信息确定目标位置包括:
在预设时间段内获取用户眼睛的注视位置;
判断用户眼睛视线在所述注视位置停留的时间是否大于预设时间阈值;
当用户眼睛视线在所述注视位置停留的时间大于预设时间阈值时,将所述注视位置确定为目标位置。
3.根据权利要求1所述的方法,其特征在于,所述确定待显示图像内容包括:
获取所述电子设备的位置角度信息;
基于所述电子设备的位置角度信息以及所述目标位置确定待显示图像内容。
4.一种电子设备,其特征在于,所述电子设备包括图像显示区域;所述电子设备包括:
输入接口,用于接收佩戴所述电子设备的用户的眼动特征信息;
第一处理器,用于基于所述眼动特征信息确定目标位置;
显示装置,用于基于所述目标位置将所述图像显示区域的图像显示位置由第一位置调整至第二位置,其中,所述第二位置为与目标位置相匹配的位置,以根据用户眼睛注视点的变化将所述图像显示区域的图像显示在所述图像显示区域的不同位置;
第二处理器,用于确定待显示图像内容;所述待显示图像内容为用户需要在图像显示区域的第二位置观看到的图像内容;
所述显示装置,还用于将所述待显示图像内容显示在所述图像显示区域的第二位置;
所述电子设备包括:发光部件和折射反射部件;所述显示装置包括:
第二获取模块,用于调整所述发光部件和折射反射部件,获取所述电子设备透镜的间隙、方向和曲率;
调整模块,用于基于所述透镜的间隙、方向和曲率将所述图像显示区域的图像显示位置由第一位置调整至第二位置。
5.根据权利要求4所述的电子设备,其特征在于,所述眼动特征信息包括用户眼睛的注视位置,所述第一处理器包括:
第一获取模块,用于在预设时间段内获取用户眼睛的注视位置;
判断模块,用于判断用户眼睛视线在所述注视位置停留的时间是否大于预设时间阈值;
第一确定模块,用于当用户眼睛视线在所述注视位置停留的时间大于预设时间阈值时,将所述注视位置确定为目标位置。
6.根据权利要求4所述的电子设备,其特征在于,所述第二处理器包括:
第三获取模块,用于获取所述电子设备的位置角度信息;
第二确定模块,用于基于所述电子设备的位置角度信息以及所述目标位置确定待显示图像内容。
CN201710509019.2A 2017-06-28 2017-06-28 一种图像显示方法及电子设备 Active CN107272904B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201710509019.2A CN107272904B (zh) 2017-06-28 2017-06-28 一种图像显示方法及电子设备
US16/021,565 US20190004600A1 (en) 2017-06-28 2018-06-28 Method and electronic device for image display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710509019.2A CN107272904B (zh) 2017-06-28 2017-06-28 一种图像显示方法及电子设备

Publications (2)

Publication Number Publication Date
CN107272904A CN107272904A (zh) 2017-10-20
CN107272904B true CN107272904B (zh) 2021-05-18

Family

ID=60071213

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710509019.2A Active CN107272904B (zh) 2017-06-28 2017-06-28 一种图像显示方法及电子设备

Country Status (2)

Country Link
US (1) US20190004600A1 (zh)
CN (1) CN107272904B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108399903B (zh) * 2018-03-27 2020-11-27 京东方科技集团股份有限公司 一种成像位置的调节方法及装置、平视显示***
EP3806710A4 (en) * 2018-06-18 2022-03-30 New Jersey Institute of Technology METHOD, SYSTEM AND APPARATUS FOR DIAGNOSTIC EVALUATION AND SCREENING OF BINOCULAR MALFUNCTIONS
CN109298780A (zh) * 2018-08-24 2019-02-01 百度在线网络技术(北京)有限公司 基于ar的信息处理方法、装置、ar设备及存储介质
CN110109553B (zh) * 2019-05-24 2021-10-22 京东方科技集团股份有限公司 一种智能镜子和显示方法
CN110208947B (zh) * 2019-06-03 2021-10-08 歌尔光学科技有限公司 基于人眼追踪的显示设备及显示方法
CN110488970A (zh) * 2019-07-03 2019-11-22 努比亚技术有限公司 弧形显示屏的图形显示方法、终端及计算机可读存储介质
EP3786765A1 (en) * 2019-08-29 2021-03-03 Leica Instruments (Singapore) Pte. Ltd. Microscope, control circuit, method and computer program for generating information on at least one inspected region of an image
WO2021134710A1 (zh) * 2019-12-31 2021-07-08 深圳市大疆创新科技有限公司 一种控制方法及相关装置
CN111880710B (zh) * 2020-07-31 2022-02-15 Oppo广东移动通信有限公司 屏幕旋转方法及相关产品
CN114449098B (zh) * 2020-10-30 2023-03-24 华为技术有限公司 一种显示方法及电子设备
CN113052155B (zh) * 2021-02-03 2024-04-02 深圳赋能光达科技有限公司 光源亮度调节器、结构光投射器、身份识别装置及电子设备
CN112817550B (zh) * 2021-02-07 2023-08-22 联想(北京)有限公司 一种数据处理方法及装置
CN113589532A (zh) * 2021-07-30 2021-11-02 歌尔光学科技有限公司 头戴设备的显示校准方法、装置、头戴设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102062947A (zh) * 2009-11-12 2011-05-18 江森自控科技公司 显示装置
CN103698884A (zh) * 2013-12-12 2014-04-02 京东方科技集团股份有限公司 开放式头戴显示装置及其显示方法
CN104345454A (zh) * 2013-08-02 2015-02-11 广达电脑股份有限公司 头戴式视觉辅助***及其成像方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101520544A (zh) * 2008-02-27 2009-09-02 全景科技有限公司 可变曲率的透镜结构
US8970452B2 (en) * 2011-11-02 2015-03-03 Google Inc. Imaging method
JP2013231933A (ja) * 2012-05-02 2013-11-14 Sony Corp 表示装置および電子機器
ITMI20121842A1 (it) * 2012-10-30 2014-05-01 Glassup S R L A Capitale Ridotto Occhiali per realta' aumentata
US9625723B2 (en) * 2013-06-25 2017-04-18 Microsoft Technology Licensing, Llc Eye-tracking system using a freeform prism
JP6340807B2 (ja) * 2014-02-05 2018-06-13 株式会社リコー 画像表示装置及び移動体
CN104581126A (zh) * 2014-12-16 2015-04-29 青岛歌尔声学科技有限公司 一种头戴显示设备的画面显示处理方法和处理装置
CN204408541U (zh) * 2014-12-29 2015-06-17 北京弘天智达科技有限公司 一种穿戴式显示通讯装置和微型显示通讯***
US9870049B2 (en) * 2015-07-31 2018-01-16 Google Llc Reflective lenses to auto-calibrate a wearable system
US10845591B2 (en) * 2016-04-12 2020-11-24 Ostendo Technologies, Inc. Split exit pupil heads-up display systems and methods
WO2018022910A1 (en) * 2016-07-27 2018-02-01 Tobii Ab Wearable device having a display, lens, illuminator, and image sensor
CN106412563A (zh) * 2016-09-30 2017-02-15 珠海市魅族科技有限公司 一种图像显示方法以及装置
CN106406543A (zh) * 2016-11-23 2017-02-15 长春中国光学科学技术馆 人眼控制vr场景变换装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102062947A (zh) * 2009-11-12 2011-05-18 江森自控科技公司 显示装置
CN104345454A (zh) * 2013-08-02 2015-02-11 广达电脑股份有限公司 头戴式视觉辅助***及其成像方法
CN103698884A (zh) * 2013-12-12 2014-04-02 京东方科技集团股份有限公司 开放式头戴显示装置及其显示方法

Also Published As

Publication number Publication date
CN107272904A (zh) 2017-10-20
US20190004600A1 (en) 2019-01-03

Similar Documents

Publication Publication Date Title
CN107272904B (zh) 一种图像显示方法及电子设备
US11129530B2 (en) Eye tracking using eyeball center position
TWI486630B (zh) 適應性調整頭戴式顯示器的方法與頭戴式顯示器
CN106575194B (zh) 信息处理设备和控制方法
EP3230825B1 (en) Device for and method of corneal imaging
TWI545947B (zh) 具有影像擷取及分析模組之顯示裝置
US20160140692A1 (en) Systems and methods for configuring the display resolution of an electronic device based on distance and user presbyopia
WO2019187487A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20150317956A1 (en) Head mounted display utilizing compressed imagery in the visual periphery
WO2004066097A3 (en) Gaze tracking system and method
US20150304625A1 (en) Image processing device, method, and recording medium
US11561392B2 (en) Method for generating and displaying a virtual object by an optical system
US20170372679A1 (en) Mobile Terminal for Automatically Adjusting a Text Size and a Method Thereof
TW201814356A (zh) 頭戴顯示裝置與其鏡片位置調整方法
JPWO2019021601A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2008237625A (ja) 見え方度判定装置
US11243609B2 (en) Information processing apparatus, information processing method, and program
CN111179860A (zh) 电子设备的背光模式调整方法、电子设备及装置
JP7258620B2 (ja) 画像処理システム、及び画像処理方法
CN113132642A (zh) 图像显示的方法及装置、电子设备
TWI644260B (zh) 顯示裝置
WO2020016969A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CN113032022B (zh) 设备控制方法及相关设备
US20230410382A1 (en) Information processing apparatus, head-mounted display apparatus, information processing method, and non-transitory computer readable medium
Borsato et al. xSDL: stroboscopic differential lighting eye tracker with extended temporal support

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant