CN114898440A - 液晶光栅的驱动方法及显示装置、其显示方法 - Google Patents

液晶光栅的驱动方法及显示装置、其显示方法 Download PDF

Info

Publication number
CN114898440A
CN114898440A CN202210614743.2A CN202210614743A CN114898440A CN 114898440 A CN114898440 A CN 114898440A CN 202210614743 A CN202210614743 A CN 202210614743A CN 114898440 A CN114898440 A CN 114898440A
Authority
CN
China
Prior art keywords
liquid crystal
coordinate system
light
crystal grating
pupil center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210614743.2A
Other languages
English (en)
Inventor
李鑫恺
陈丽莉
吕耀宇
马思研
李言
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd filed Critical BOE Technology Group Co Ltd
Priority to CN202210614743.2A priority Critical patent/CN114898440A/zh
Publication of CN114898440A publication Critical patent/CN114898440A/zh
Priority to PCT/CN2023/091502 priority patent/WO2023231674A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • G02B30/31Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers involving active parallax barriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Geometry (AREA)
  • Diffracting Gratings Or Hologram Optical Elements (AREA)
  • Liquid Crystal (AREA)

Abstract

本公开提供的液晶光栅的驱动方法及显示装置、其显示方法,包括确定瞳孔中心的实时位置;根据实时位置、以及预先建立的瞳孔中心的位置与液晶光栅中透光区位置的对应关系,确定实时位置对应的透光区在液晶光栅中的位置;驱动液晶光栅,使得液晶光栅仅在与实时位置对应的透光区的位置透光。

Description

液晶光栅的驱动方法及显示装置、其显示方法
技术领域
本公开涉及显示技术领域,尤其涉及一种液晶光栅的驱动方法及显示装置、其显示方法。
背景技术
随着显示技术的不断发展,三维(three dimensional,3D)显示技术越来越备受关注。三维显示技术的工作原理为:针对同一场景,使观看者的左眼和右眼分别接收图像,观看者的两眼在水平方向上的间距(即瞳距,约为65mm),使得两眼的视角存在细微的差别,由于这种差别的存在,观看者的左眼和右眼分别观察到的图像也会略有差异(即双眼视差),左眼图像和右眼图像经大脑视觉皮层的叠加融合后,就形成了立体效果。
发明内容
本公开提供了一种液晶光栅的驱动方法及显示装置、其显示方法,具体方案如下:
一方面,本公开实施例提供了一种液晶光栅的驱动方法,包括:
确定瞳孔中心的实时位置;
根据所述实时位置、以及预先建立的瞳孔中心的位置与所述液晶光栅中透光区位置的对应关系,确定所述实时位置对应的所述透光区在所述液晶光栅中的位置;
驱动所述液晶光栅,使得所述液晶光栅仅在与所述实时位置对应的所述透光区的位置透光。
在一些实施例中,在本公开实施例提供的上述驱动方法中,确定瞳孔中心的实时位置,具体包括:实时采集用户的面部图像,并基于所述面部图像确定瞳孔中心在相机坐标系下的三维坐标。
在一些实施例中,在本公开实施例提供的上述驱动方法中,实时采集用户的面部图像,并基于所述面部图像确定瞳孔中心在相机坐标系下的三维坐标,具体包括:
采用位置不同的可见光相机分别实时采集面部图像;
分别提取各所述可见光相机同时采集的所述面部图像中虹膜的多个第一边缘点,并对各所述面部图像中相同位置的所述第一边缘点进行匹配;
利用三角测量法计算匹配成功的各所述第一边缘点在相机坐标系下的三维坐标;
以各所述第一边缘点在相机坐标系下映射空间的中心的三维坐标,作为瞳孔中心在相机坐标系下的三维坐标。
在一些实施例中,在本公开实施例提供的上述驱动方法中,实时采集用户的面部图像,并基于所述面部图像确定瞳孔中心在相机坐标系下的三维坐标,具体包括:
采用红外相机实时获取用户的面部图像;
提取所述面部图像中虹膜的多个第一边缘点,并对所述多个第一边缘点作椭圆拟合,拟合所得椭圆中心在图像坐标系下的二维坐标作为瞳孔中心在图像坐标系下的二维坐标;
获取所述面部图像中多个面部特征点,并将所述多个面部特征点映射至预先建立的三维人脸模型上的相同位置;
调节所述三维人脸模型的坐标系至与相机坐标系重合;
将所述三维人脸模型中人眼的多个第二边缘点在相机坐标系下的深度坐标的均值或众数,作为瞳孔中心在相机坐标系下的深度坐标;
将瞳孔中心在图像坐标系下的二维坐标转换为瞳孔中心在相机坐标系下相同维度的二维坐标,瞳孔中心在相机坐标系下的二维坐标与瞳孔中心在相机坐标系下的深度坐标构成了瞳孔中心在相机坐标系下的三维坐标。
在一些实施例中,在本公开实施例提供的上述驱动方法中,建立三维人脸模型,具体包括:
采用可见光相机采集至少一张面部图像;
获取每个所述面部图像的多个面部特征点;
利用三角测量法计算所述多个面部特征点在相机坐标系下的三维坐标;
以其中一个所述面部特征点作为待建立的三维人脸模型的坐标系的原点,并将待建立的三维人脸模型的坐标系的原点调节至与相机坐标系的原点重合,使得所述多个面部特征点在相机坐标系下的三维坐标转换为在待建立的三维人脸模型的坐标系下的三维坐标;
根据所述多个面部特征点在待建立的三维人脸模型的坐标系下的三维坐标,还原出所述多个面部特征点表征的立体脸,实现三维人脸模型的建立。
在一些实施例中,在本公开实施例提供的上述驱动方法中,建立瞳孔中心的位置与所述液晶光栅中透光区位置的对应关系,具体包括:
以所述液晶光栅的中心为坐标原点,所述液晶光栅的出光方向为Z轴正方向,相机坐标系的X轴负方向为X轴正方向,建立所述液晶光栅的坐标系;
在所述液晶光栅的坐标系下,确定瞳孔中心在不同位置对应的所述液晶光栅中不同位置的透光区。
在一些实施例中,在本公开实施例提供的上述驱动方法中,根据所述实时位置、以及预先建立的瞳孔中心的位置与所述液晶光栅中透光区位置的对应关系,确定所述实时位置对应的所述透光区在所述液晶光栅中的位置,具体包括:
将实时确定的瞳孔中心在相机坐标系下的x坐标的负值作为瞳孔中心在所述液晶光栅的坐标系下的x坐标,并将实时确定的瞳孔中心在相机坐标系下的z坐标作为瞳孔中心在所述液晶光栅的坐标系下的z坐标;
判断瞳孔中心在所述液晶光栅的坐标系下的z坐标是否等于预设的最佳观看距离;若是,则在所述液晶光栅的坐标系的X轴方向上移动透光区,且移动后的透光区大小与移动前的透光区大小相同;若否,在所述液晶光栅的坐标系的X轴方向上调节透光区的大小,且调节后的透光区位置与调节前的透光区位置部分交叠。
在一些实施例中,在本公开实施例提供的上述驱动方法中,在所述液晶光栅的坐标系的X轴方向上移动透光区,具体包括:
检测瞳孔中心在所述液晶光栅的坐标系下的坐标点、原点的连线延长线与所述液晶光栅的交点坐标;
将所述交点坐标的x坐标与所述液晶光栅中一个周期内的各条状电极在X轴上的同侧端点坐标进行对比,若所述交点坐标的x坐标大于一个周期内的第(i-1)根条状电极的端点坐标且小于等于第i根条状电极的端点坐标,则确定每个周期内第i~[(i+n/2)-1]根条状电极所在区为与当前瞳孔中心对应的透光区,n为一个周围内条状电极的总数且n为偶数,i为大于等于2且小于等于n/2的整数。
在一些实施例中,在本公开实施例提供的上述驱动方法中,在所述液晶光栅的坐标系的X轴方向上调节透光区的大小,具体包括:
计算共m个周期内每根条状电极在X轴上的位置坐标、每个左眼像素在所述液晶光栅中对应的可透光区在X轴上的坐标范围、以及每个右眼像素在所述液晶光栅中对应的可透光区在X轴上的坐标范围;
将第a周期内第b根条状电极的位置坐标与左眼像素对应可透光区的坐标范围、以及右眼像素对应可透光区的坐标范围进行对比,若第a周期内第b根条状电极的位置坐标同时位于左眼像素对应可透光区的坐标范围与右眼像素对应可透光区的坐标范围内,则确定第a周期内第b根条状电极所在区为当前瞳孔中心对应的透光区,m为所述液晶光栅中光栅周期的总数,a为大于等于1且小于等于m的整数,b为大于等于1且小于等于n的整数。
另一方面,本公开实施例提供了一种显示装置,包括背光源、位于所述背光源出光侧的液晶面板、以及位于所述背光源与所述液晶面板之间的液晶光栅,所述液晶光栅采用本公开实施例提供的上述驱动方法进行驱动。
另一方面,本公开实施例提供了一种上述显示装置的显示方法,包括:
在二维显示模式下,控制液晶光栅完全透光;
在三维显示模式下,采用上述驱动方法控制所述液晶光栅形成交替排布的透光区和遮光区。
在一些实施例中,在本公开实施例提供的上述显示方法中,在所述液晶光栅的坐标系的X轴方向上调节透光区大小的同时,还包括:
确定透光区对应条状电极的总数,并基于条状电极的总数调整所述背光源出射的背光亮度,背光亮度与条状电极总数呈负相关关系。
附图说明
图1为本公开实施例提供的液晶光栅的驱动方法的流程图;
图2为本公开实施例提供的采集面部图像的示意图;
图3为本公开实施例提供的确定瞳孔中心的实时位置的一种流程图;
图4为本公开实施例提供的显示装置的一种结构示意图;
图5为本公开实施例提供的确定瞳孔中心的实时位置的又一种流程图;
图6为本公开实施例提供的建立三维人脸模型的流程图;
图7为本公开实施例提供的建立瞳孔中心的不同位置与液晶光栅中透光区的不同位置对应关系的流程图;
图8为本公开实施例提供的建立液晶光栅的坐标系的示意图;
图9为本公开实施例提供的确定瞳孔中心的实时位置对应的所述透光区在所述液晶光栅中的位置的流程图;
图10为本公开实施例提供的根据瞳孔中心的实时位置向左移动透光区位置的示意图;
图11为本公开实施例提供的根据瞳孔中心的实时位置减小透光区大小的示意图;
图12为本公开实施例提供的调节透光区大小的流程图。
具体实施方式
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例的附图,对本公开实施例的技术方案进行清楚、完整地描述。需要注意的是,附图中各图形的尺寸和形状不反映真实比例,目的只是示意说明本公开内容。并且自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。为了保持本公开实施例的以下说明清楚且简明,本公开省略了已知功能和已知部件的详细说明。
除非另作定义,此处使用的技术术语或者科学术语应当为本公开所属领域内具有一般技能的人士所理解的通常意义。本公开说明书以及权利要求书中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“内”、“外”、“上”、“下”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
裸眼3D显示技术是一种利用双眼具有视差的特性,在不需要任何辅助设备(例如3D眼镜)的情况下,即可获得具有空间、深度的逼真立体形象的显示技术。由于裸眼3D显示装置显示的立体影像具有真实生动的表现力、较好的环境感染力和强烈的视觉冲击力等优点,裸眼3D显示装置的应用场景越来越广泛。
相关裸眼3D显示技术主要是基于视点的立体显示方式,其分光器件主要包括光屏障式和柱透镜式两种。其中光屏障式的分光器件可以为液晶光栅,液晶光栅包括相对而置的第一基板和第二基板,以及位于第一基板和第二基板之间的液晶层,第一基板朝向液晶层的一侧具有多个条状电极,第二基板朝向液晶层的一侧具有一面状电极,通过为面状电极和部分条状电极加载电压的方式,可在液晶光栅中交替形成透光区和遮光区。由于液晶光栅与液晶面板具有良好的兼容性,因此基于液晶光栅的裸眼3D显示技术的应用越来越广,例如在娱乐、教育、车载、医疗等领域均有相关需求。但基于液晶光栅的裸眼3D显示技术受固定视角和观看距离限制,严重影响了其推广应用。
为了解决相关技术中存在的上述技术问题,本公开实施例提供了一种液晶光栅的驱动方法,如图1所示,包括:
S101、确定瞳孔中心的实时位置;
S102、根据实时位置、以及预先建立的瞳孔中心的位置与液晶光栅中透光区位置的对应关系,确定实时位置对应的透光区在液晶光栅中的位置;
S103、驱动液晶光栅,使得液晶光栅仅在与实时位置对应的透光区的位置透光。
在本公开实施例提供的上述液晶光栅的驱动方法中,通过确定瞳孔中心的实时位置,并根据实时位置、以及预先建立的瞳孔中心的位置与液晶光栅中透光区位置的对应关系,确定实时位置对应的透光区在液晶光栅中的位置之后,控制液晶光栅仅在与实时位置对应的透光区的位置透光,使得用户可以在不同距离、不同视角下观看3D图像,由此解除了裸眼3D装置只能在固定视角、固定距离观看的限制,利于实现基于液晶光栅的裸眼3D显示技术的推广应用。
在一些实施例中,在本公开实施例提供的上述驱动方法中,上述步骤S101、确定瞳孔中心的实时位置,具体可以通过以下方式进行实现:实时采集用户的面部图像,并基于面部图像确定瞳孔中心在相机坐标系下的三维坐标,以实现对瞳孔中心的准确定位。
可见光图像通常具有较高的空间分辨率(即图像中最小的可辨识细节)、可呈现更多的细节信息、且具有较好的明暗对比效果,因此,可见光图像适合于人类的视觉感知。基于此,在一些实施例中,如图2所示,可通过成像元件C,例如可见光(RGB)相机等采集用户的面部图像。在此情况下,上述步骤:实时采集用户的面部图像,并基于面部图像确定瞳孔中心在相机坐标系下的三维坐标,具体可以通过图3所示的各步骤进行实现:
S1011、采用位置不同的可见光相机分别实时采集面部图像;
示例性地,如图4所示,可见光相机可以为2个,且2个可见光相机可对称分布在液晶面板P的中轴线S两侧,相应地,2个相机的光心O可以关于液晶面板P的中轴线S对称;
S1012、分别提取各可见光相机同时采集的面部图像中虹膜的多个第一边缘点,并对各面部图像中相同位置的第一边缘点进行匹配;在不同面部图像中,虹膜某一相同位置均具有第一边缘点的情况下,则视为不同图像中虹膜在该位置的第一边缘点匹配成功,匹配成功的全部第一边缘点即组成了虹膜的边缘;
S1013、利用三角测量法计算匹配成功的各第一边缘点在相机坐标系下的三维坐标,相当于将虹膜的各第一边缘点在图像坐标系下的二维坐标转换为了在相机坐标系下的三维坐标;其中,三角测量是视觉定位中,已知多个相机位置和空间中一点的投影点,进一步求该点3D位置的方法;
S1014、以各第一边缘点在相机坐标系下映射空间的中心的三维坐标,作为瞳孔中心在相机坐标系下的三维坐标。在通常的情况下,虹膜和瞳孔并不是严格的同心圆,但是在一般情况它们的圆心非常接近,所以近似按照圆心相同来处理,可以通过定位虹膜的中心来找到瞳孔中心。因此,可以各第一边缘点在相机坐标系下映射空间的中心的三维坐标,作为瞳孔中心在相机坐标系下的三维坐标。
考虑到,在某些恶劣条件(例如强光、雾气等)下,可见光图像很容易受到的影响,而不能获得理想的可见光图像。相反,描绘物体热辐射的红外图像则可以有效抵抗这些干扰。基于此,在一些实施例中,成像元件C也可以为红外(IR)相机等采集用户的面部图像。在此情况下,上述步骤:实时采集用户的面部图像,并基于面部图像确定瞳孔中心在相机坐标系下的三维坐标,具体可以通过图5所示的各步骤进行实现:
S1011'、采用红外相机实时获取用户的面部图像;
S1012'、提取面部图像中虹膜的多个第一边缘点,并对多个第一边缘点作椭圆拟合,拟合所得椭圆中心在图像坐标系下的二维坐标作为瞳孔中心在图像坐标系下的二维坐标;
S1013'、获取面部图像中多个面部特征点,并将多个面部特征点映射至预先建立的三维人脸模型上的相同位置;可选地,面部特征点为能够体现例如眉毛、眼睛、鼻子、嘴巴、脸型轮廓等面部特征的点;
S1014'、调节三维人脸模型的坐标系至与相机坐标系重合;可选地,可基于PnP的位姿测量方法得到三维人脸模型的坐标系到相机坐标系的旋转向量和平移向量,根据所得旋转向量旋转三维人脸模型的坐标系的xyz坐标轴、并根据所得平移向量平移三维人脸模型的坐标系的原点,即可使得三维人脸模型的坐标系至与相机坐标系重合;
S1015'、将三维人脸模型中人眼的多个第二边缘点在相机坐标系下的深度坐标的均值或众数等代表性数据,作为瞳孔中心在相机坐标系下的深度坐标;
S1016'、将瞳孔中心在图像坐标系下的二维坐标转换为瞳孔中心在相机坐标系下的二维坐标,瞳孔中心在相机坐标系下的二维坐标与瞳孔中心在相机坐标系下的深度坐标构成了瞳孔中心在相机坐标系下的三维坐标。每个相机均具有相机内参(例如光心、焦距等参数),结合相机内参可将由该相机拍摄的图像中各点在图像坐标系下的二维坐标(即xy坐标)转换为在相机坐标系下同维的二维坐标(即xy坐标)。
在一些实施例中,在本公开实施例提供的上述驱动方法中,如图6所示,建立三维人脸模型,具体可以通过以下方式进行实现:
S601、采用可见光相机采集至少一张面部图像;在一些实施例中,可通过两个可见光相机采集多帧面部图像;
S602、获取每个面部图像的多个面部特征点;
S603、利用三角测量法计算多个面部特征点在相机坐标系下的三维坐标;
S604、以其中一个面部特征点(例如鼻尖、瞳孔等)作为待建立的三维人脸模型的坐标系的原点,并可通过PnP的位姿测量方法,将待建立的三维人脸模型的坐标系的原点调节至与相机坐标系的原点重合,使得多个面部特征点在相机坐标系下的三维坐标转换为在待建立的三维人脸模型的坐标系下的三维坐标;
S605、根据多个面部特征点在待建立的三维人脸模型的坐标系下的三维坐标,还原出多个面部特征点表征的立体脸,实现三维人脸模型的建立。
在一些实施例中,在本公开实施例提供的上述驱动方法中,如图7所示,建立瞳孔中心的位置与液晶光栅中透光区位置的对应关系,具体可以通过以下方式进行实现:
S701、以液晶光栅的中心为坐标原点,液晶光栅的出光方向(相当于相机坐标系的Z轴正方向)为Z轴正方向,相机坐标系的X轴负方向为X轴正方向,建立液晶光栅的坐标系,如图8所示;液晶光栅位于液晶面板与背光源之间,D为人眼距液晶面板的最佳观看距离,h为最佳观看距离下液晶面板与液晶光栅考虑折射率后的间距;液晶光栅的中心与液晶面板的中心大致重合(即恰好重合,或在因对位、测量等因素造成的误差范围内),液晶光栅的出光方向为由液晶光栅指向液晶面板的方向;
S702、在液晶光栅的坐标系下,确定瞳孔中心在不同位置对应的液晶光栅中不同位置的透光区。
在一些实施例中,在本公开实施例提供的上述驱动方法中,步骤S102、根据实时位置、以及预先建立的瞳孔中心的位置与液晶光栅中透光区位置的对应关系,确定实时位置对应的透光区在液晶光栅中的位置,具体可以包括以下步骤,如图9所示:
S901、将实时确定的瞳孔中心在相机坐标系下的x坐标的负值作为瞳孔中心在液晶光栅的坐标系下的x坐标,并将实时确定的瞳孔中心在相机坐标系下的z坐标作为瞳孔中心在液晶光栅的坐标系下的z坐标,实现瞳孔中心的坐标从相机坐标系到液晶光栅的坐标系的转换;
S902、判断瞳孔中心在液晶光栅的坐标系下的z坐标是否等于预设的最佳观看距离D;若是,则可以确定人眼是在X轴上左右移动(图10示出了人眼向左移动),需要在液晶光栅的坐标系的X轴方向上移动透光区(图10示出了向左移动透光区),且移动后的透光区大小与移动前的透光区大小相同,例如液晶光栅中透光区的整体透光率为50%,且每个透光区的大小相同;若否,则可以确定人眼在Y轴上前后移动(图11示出了人眼向前趋近液晶面板移动),在液晶光栅的坐标系的X轴方向上调节透光区的大小(图11示出了减小透光区),且调节后透光区与调节前的透光区部分交叠。
在一些实施例中,在本公开实施例提供的上述驱动方法中,在液晶光栅的坐标系的X轴方向上移动透光区,具体可以通过以下方式进行实现:
检测瞳孔中心在液晶光栅的坐标系下的坐标点、原点的连线延长线与液晶光栅的交点坐标;并将交点坐标的x坐标xopen与液晶光栅中一个周期内的各条状电极在X轴上的同侧(例如左侧或右侧)端点坐标进行对比,若交点坐标的x坐标xopen大于一个周期内的第(i-1)根条状电极的端点坐标xi-1且小于等于第i根条状电极的端点坐标xi,则确定每个周期内第i~[(i+n/2)-1]根条状电极所在区为与当前瞳孔中心对应的透光区,n为一个周围内条状电极的总数且n为偶数,i为大于等于2且小于等于n/2的整数。
在液晶光栅中的多根条状电极中,以n根条状电极作为一个周期,所有周期的对应位数的条状电极连接在一起,因此每个周期内液晶光栅的透光情况相同,则只需计算一个周期内的条状电极的加压情况。以左眼瞳孔中心为例,左眼瞳孔中心在液晶光栅坐标系下的坐标点与液晶光栅的坐标系的原点的连线延长后与液晶光栅相较于一点,对比X轴方向上每根条状电极的左端点坐标xi、与此点的坐标xopen,若xi-1<xopen≤xi,则可知一个周期内从第i根至(i+n/2)-1根条状电极的位置需置为透光状态。
在一些实施例中,在本公开实施例提供的上述驱动方法中,在液晶光栅的坐标系的X轴方向上调节透光区的大小,具体可以通过以下方式进行实现,如图12所示:
计算共m个周期内每根条状电极在X轴上的位置坐标、每个左眼像素在液晶光栅中对应的可透光区在X轴上的坐标范围、以及每个右眼像素在液晶光栅中对应的可透光区在X轴上的坐标范围;
将第a周期内第b根条状电极的位置坐标与左眼像素对应可透光区的坐标范围、以及右眼像素对应可透光区的坐标范围进行对比,若第a周期内第b根条状电极的位置坐标同时位于左眼像素对应可透光区的坐标范围与右眼像素对应可透光区的坐标范围内,即第a周期内第b根条状电极的位置坐标位于左眼像素对应可透光区的坐标范围与右眼像素对应可透光区的坐标范围的交集内,则确定第a周期内第b根条状电极所在区为当前瞳孔中心对应的透光区,m为液晶光栅中光栅周期的总数,a为大于等于1且小于等于m的整数,b为大于等于1且小于等于n的整数。
基于同一发明构思,本公开实施例还提供了一种显示装置,包括背光源、位于背光源出光侧的液晶面板、以及位于背光源与液晶面板之间的液晶光栅,液晶光栅采用本公开实施例提供的上述驱动方法进行驱动。由于该显示装置解决问题的原理与上述驱动方法解决问题的原理相似,因此,本公开实施例提供的该显示装置的实施可以参见本公开实施例提供的上述驱动方法的实施,重复之处不再赘述。
在一些实施例中,本公开实施例提供的上述显示装置可以为:手机、平板电脑、电视机、显示器、笔记本电脑、数码相框、导航仪、智能手表、健身腕带、个人数字助理等任何具有显示功能的产品或部件。该显示装置包括但不限于:射频单元、网络模块、音频输出&输入单元、传感器、显示单元、用户输入单元、接口单元、存储器、处理器、以及电源等部件。另外,本领域技术人员可以理解的是,上述结构并不构成对本公开实施例提供的上述显示装置的限定,换言之,在本公开实施例提供的上述显示装置中可以包括上述更多或更少的部件,或者组合某些部件,或者不同的部件布置。
基于同一发明构思,本公开实施例还提供了一种上述显示装置的显示方法,包括以下步骤:
在二维显示模式下,控制液晶光栅完全透光;
在三维显示模式下,采用本公开实施例提供的上述驱动方法控制液晶光栅形成交替排布的透光区和遮光区。
在一些实施例中,当三维显示模式下,背光不可避免地被液晶光栅中的遮光区遮挡而导致屏幕亮度降低,且在人眼向前移动(即朝向靠近液晶面板的方向移动)时,液晶光栅的透光区缩小,屏幕亮度会更低。因此,为保证屏幕亮度,需要增大背光亮度。可选地,本公开中可在液晶光栅的坐标系的X轴方向上调节透光区的大小的同时,确定透光区对应条状电极的总数,并基于条状电极的总数调整背光源出射的背光亮度,背光亮度与条状电极总数呈负相关关系,即透光区越小,条状电极数量越少,背光亮度需要提升的越大。
显然,本领域的技术人员可以对本公开实施例进行各种改动和变型而不脱离本公开实施例的精神和范围。这样,倘若本公开实施例的这些修改和变型属于本公开权利要求及其等同技术的范围之内,则本公开也意图包含这些改动和变型在内。

Claims (12)

1.一种液晶光栅的驱动方法,其中,包括:
确定瞳孔中心的实时位置;
根据所述实时位置、以及预先建立的瞳孔中心的位置与所述液晶光栅中透光区位置的对应关系,确定所述实时位置对应的所述透光区在所述液晶光栅中的位置;
驱动所述液晶光栅,使得所述液晶光栅仅在与所述实时位置对应的所述透光区的位置透光。
2.如权利要求1所述的驱动方法,其中,确定瞳孔中心的实时位置,具体包括:实时采集用户的面部图像,并基于所述面部图像确定瞳孔中心在相机坐标系下的三维坐标。
3.如权利要求2所述的驱动方法,其中,实时采集用户的面部图像,并基于所述面部图像确定瞳孔中心在相机坐标系下的三维坐标,具体包括:
采用位置不同的可见光相机分别实时采集面部图像;
分别提取各所述可见光相机同时采集的所述面部图像中虹膜的多个第一边缘点,并对各所述面部图像中相同位置的所述第一边缘点进行匹配;
利用三角测量法计算匹配成功的各所述第一边缘点在相机坐标系下的三维坐标;
以各所述第一边缘点在相机坐标系下映射空间的中心的三维坐标,作为瞳孔中心在相机坐标系下的三维坐标。
4.如权利要求2所述的驱动方法,其中,实时采集用户的面部图像,并基于所述面部图像确定瞳孔中心在相机坐标系下的三维坐标,具体包括:
采用红外相机实时获取用户的面部图像;
提取所述面部图像中虹膜的多个第一边缘点,并对所述多个第一边缘点作椭圆拟合,拟合所得椭圆中心在图像坐标系下的二维坐标作为瞳孔中心在图像坐标系下的二维坐标;
获取所述面部图像中多个面部特征点,并将所述多个面部特征点映射至预先建立的三维人脸模型上的相同位置;
调节所述三维人脸模型的坐标系至与相机坐标系重合;
将所述三维人脸模型中人眼的多个第二边缘点在相机坐标系下的深度坐标的均值或众数,作为瞳孔中心在相机坐标系下的深度坐标;
将瞳孔中心在图像坐标系下的二维坐标转换为瞳孔中心在相机坐标系下相同维度的二维坐标,瞳孔中心在相机坐标系下的二维坐标与瞳孔中心在相机坐标系下的深度坐标构成了瞳孔中心在相机坐标系下的三维坐标。
5.如权利要求3所述的驱动方法,其中,建立三维人脸模型,具体包括:
采用可见光相机采集至少一张面部图像;
获取每个所述面部图像的多个面部特征点;
利用三角测量法计算所述多个面部特征点在相机坐标系下的三维坐标;
以其中一个所述面部特征点作为待建立的三维人脸模型的坐标系的原点,并将待建立的三维人脸模型的坐标系的原点调节至与相机坐标系的原点重合,使得所述多个面部特征点在相机坐标系下的三维坐标转换为在待建立的三维人脸模型的坐标系下的三维坐标;
根据所述多个面部特征点在待建立的三维人脸模型的坐标系下的三维坐标,还原出所述多个面部特征点表征的立体脸,实现三维人脸模型的建立。
6.如权利要求2~5任一项所述的驱动方法,其中,建立瞳孔中心的位置与所述液晶光栅中透光区位置的对应关系,具体包括:
以所述液晶光栅的中心为坐标原点,所述液晶光栅的出光方向为Z轴正方向,相机坐标系的X轴负方向为X轴正方向,建立所述液晶光栅的坐标系;
在所述液晶光栅的坐标系下,确定瞳孔中心在不同位置对应的所述液晶光栅中不同位置的透光区。
7.如权利要求6所述的驱动方法,其中,根据所述实时位置、以及预先建立的瞳孔中心的位置与所述液晶光栅中透光区位置的对应关系,确定所述实时位置对应的所述透光区在所述液晶光栅中的位置,具体包括:
将实时确定的瞳孔中心在相机坐标系下的x坐标的负值作为瞳孔中心在所述液晶光栅的坐标系下的x坐标,并将实时确定的瞳孔中心在相机坐标系下的z坐标作为瞳孔中心在所述液晶光栅的坐标系下的z坐标;
判断瞳孔中心在所述液晶光栅的坐标系下的z坐标是否等于预设的最佳观看距离;若是,则在所述液晶光栅的坐标系的X轴方向上移动透光区,且移动后的透光区大小与移动前的透光区大小相同;若否,在所述液晶光栅的坐标系的X轴方向上调节透光区的大小,且调节后透光区与调节前的透光区部分交叠。
8.如权利要求7所述的驱动方法,其中,在所述液晶光栅的坐标系的X轴方向上移动透光区,具体包括:
检测瞳孔中心在所述液晶光栅的坐标系下的坐标点、原点的连线延长线与所述液晶光栅的交点坐标;
将所述交点坐标的x坐标与所述液晶光栅中一个周期内的各条状电极在X轴上的同侧端点坐标进行对比,若所述交点坐标的x坐标大于一个周期内的第(i-1)根条状电极的端点坐标且小于等于第i根条状电极的端点坐标,则确定每个周期内第i~[(i+n/2)-1]根条状电极所在区为与当前瞳孔中心对应的透光区,n为一个周围内条状电极的总数且n为偶数,i为大于等于2且小于等于n/2的整数。
9.如权利要求7所述的驱动方法,其中,在所述液晶光栅的坐标系的X轴方向上调节透光区的大小,具体包括:
计算共m个周期内每根条状电极在X轴上的位置坐标、每个左眼像素在所述液晶光栅中对应的可透光区在X轴上的坐标范围、以及每个右眼像素在所述液晶光栅中对应的可透光区在X轴上的坐标范围;
将第a周期内第b根条状电极的位置坐标与左眼像素对应可透光区的坐标范围、以及右眼像素对应可透光区的坐标范围进行对比,若第a周期内第b根条状电极的位置坐标同时位于左眼像素对应可透光区的坐标范围与右眼像素对应可透光区的坐标范围内,则确定第a周期内第b根条状电极所在区为当前瞳孔中心对应的透光区,m为所述液晶光栅中光栅周期的总数,a为大于等于1且小于等于m的整数,b为大于等于1且小于等于n的整数。
10.一种显示装置,其中,包括背光源、位于所述背光源出光侧的液晶面板、以及位于所述背光源与所述液晶面板之间的液晶光栅,所述液晶光栅采用如权利要求1~9任一项所述的驱动方法进行驱动。
11.一种如权利要求10所述显示装置的显示方法,其中,包括:
在二维显示模式下,控制液晶光栅完全透光;
在三维显示模式下,采用如权利要求1~9任一项所述的驱动方法控制所述液晶光栅形成交替排布的透光区和遮光区。
12.如权利要求11所述的显示方法,其中,在所述液晶光栅的坐标系的X轴方向上调节透光区大小的同时,还包括:
确定透光区对应条状电极的总数,并基于条状电极的总数调整所述背光源出射的背光亮度,背光亮度与条状电极总数呈负相关关系。
CN202210614743.2A 2022-05-30 2022-05-30 液晶光栅的驱动方法及显示装置、其显示方法 Pending CN114898440A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202210614743.2A CN114898440A (zh) 2022-05-30 2022-05-30 液晶光栅的驱动方法及显示装置、其显示方法
PCT/CN2023/091502 WO2023231674A1 (zh) 2022-05-30 2023-04-28 液晶光栅的驱动方法及显示装置、其显示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210614743.2A CN114898440A (zh) 2022-05-30 2022-05-30 液晶光栅的驱动方法及显示装置、其显示方法

Publications (1)

Publication Number Publication Date
CN114898440A true CN114898440A (zh) 2022-08-12

Family

ID=82726923

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210614743.2A Pending CN114898440A (zh) 2022-05-30 2022-05-30 液晶光栅的驱动方法及显示装置、其显示方法

Country Status (2)

Country Link
CN (1) CN114898440A (zh)
WO (1) WO2023231674A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023231674A1 (zh) * 2022-05-30 2023-12-07 京东方科技集团股份有限公司 液晶光栅的驱动方法及显示装置、其显示方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101257593B1 (ko) * 2011-09-07 2013-04-26 이영우 양안 식의 안위감지기, 부채꼴의 변형 렌티큘러와 액정식 배리어를 사용한 입체영상표시장치
CN106056092B (zh) * 2016-06-08 2019-08-20 华南理工大学 基于虹膜与瞳孔的用于头戴式设备的视线估计方法
CN106918956B (zh) * 2017-05-12 2019-01-22 京东方科技集团股份有限公司 一种液晶光栅、3d显示装置及其驱动方法
CN107529055A (zh) * 2017-08-24 2017-12-29 歌尔股份有限公司 显示屏、头戴显示设备及其显示控制方法和装置
CN107515474B (zh) * 2017-09-22 2020-03-31 宁波维真显示科技股份有限公司 自动立体显示方法、装置及立体显示设备
CN114898440A (zh) * 2022-05-30 2022-08-12 京东方科技集团股份有限公司 液晶光栅的驱动方法及显示装置、其显示方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023231674A1 (zh) * 2022-05-30 2023-12-07 京东方科技集团股份有限公司 液晶光栅的驱动方法及显示装置、其显示方法

Also Published As

Publication number Publication date
WO2023231674A1 (zh) 2023-12-07
WO2023231674A9 (zh) 2024-01-11

Similar Documents

Publication Publication Date Title
CN102098524B (zh) 跟踪式立体显示设备及跟踪式立体显示方法
JP6023801B2 (ja) シミュレーション装置
CN107396087B (zh) 裸眼三维显示装置及其控制方法
US9848184B2 (en) Stereoscopic display system using light field type data
Sauer et al. Augmented workspace: Designing an AR testbed
TWI486631B (zh) 頭戴式顯示裝置及其控制方法
EP3425906A1 (en) Electronic device, face recognition and tracking method and three-dimensional display method
CN101636747A (zh) 二维/三维数字信息获取和显示设备
CN108885342A (zh) 用于低延迟渲染的宽基线立体
CN104865701A (zh) 头戴式显示装置
WO2021110038A1 (zh) 3d显示设备、3d图像显示方法
CN112929639A (zh) 人眼追踪装置、方法及3d显示设备、方法和终端
CN106095106A (zh) 虚拟现实终端及其显示光心距的调整方法及装置
CN108427194A (zh) 一种基于增强现实的显示方法及设备
WO2023231674A9 (zh) 液晶光栅的驱动方法及显示装置、其显示方法
KR20180109669A (ko) 가상 오브젝트의 처리가 가능한 스마트 안경
JP5750779B2 (ja) 撮像装置、画像通信システム、および画像通信方法
US10296098B2 (en) Input/output device, input/output program, and input/output method
CN113272710A (zh) 通过分色扩展视场
CN111308698B (zh) 一种定向显示屏与一种感应式三维显示装置及其显示方法
CN115032788B (zh) 头戴装置
KR101741227B1 (ko) 입체 영상 표시 장치
CN105049833B (zh) 一种采用对称可调式背光结构的立体视检查方法和装置
CN114020150A (zh) 图像显示方法、装置、电子设备及介质
JP2001218231A (ja) 立体画像を表示する装置および方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination