CN107807806A - 显示参数调整方法、装置及电子装置 - Google Patents
显示参数调整方法、装置及电子装置 Download PDFInfo
- Publication number
- CN107807806A CN107807806A CN201711038000.0A CN201711038000A CN107807806A CN 107807806 A CN107807806 A CN 107807806A CN 201711038000 A CN201711038000 A CN 201711038000A CN 107807806 A CN107807806 A CN 107807806A
- Authority
- CN
- China
- Prior art keywords
- face
- active user
- models
- eye
- structure light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1407—General aspects irrespective of display type, e.g. determination of decimal point position, display with fixed or driving decimal point, suppression of non-significant zeros
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Geometry (AREA)
- Ophthalmology & Optometry (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种显示参数调整方法、装置及电子装置,其中方法包括:向使用终端设备的当前用户进行投影,获取当前用户的人脸3D模型;对人脸3D模型进行分析,获取人脸3D模型中眼部的位置信息;根据眼部的位置信息以及终端设备的位置信息,计算当前用户使用终端设备的观看视角;根据观看视角对终端设备的显示参数进行调整,从而能够在用户位于终端设备的不同位置时,根据用户的位置调整显示参数,使得用户在所在位置能够观看到具有合适亮度和合适对比度的显示屏,提高终端设备显示屏的显示效果,提高用户使用终端设备的体验。
Description
技术领域
本发明涉及图像处理技术领域,特别涉及一种显示参数调整方法、装置及电子装置。
背景技术
目前,终端设备的显示屏的光线,在所有方向上的反射是不同的,在与显示屏距离相等的多个位置上,对应的观看视角越小,显示屏的亮度越高;对应的观看视角越大,显示屏的亮度越低。其中,观看视角为观看视线与显示屏等的垂直方向所成的角度。从而在用户使用终端设备的过程中,当用户位于不佳的观看位置时,即用户的观看视角较大时,显示屏的亮度较低,降低了显示屏的显示效果,影响用户使用终端设备的体验。
发明内容
本发明的实施例提供了一种显示参数调整方法、装置及电子装置。
本发明实施方式的显示参数调整方法包括:
向使用终端设备的当前用户进行投影,获取所述当前用户的人脸3D模型;
对所述人脸3D模型进行分析,获取所述人脸3D模型中眼部的位置信息;
根据所述眼部的位置信息以及所述终端设备的位置信息,计算所述当前用户使用所述终端设备的观看视角;
根据所述观看视角对所述终端设备的显示参数进行调整。
进一步的,所述向使用终端的当前用户进行投影,获取所述当前用户的人脸3D模型,包括:
向所述当前用户投射结构光;
拍摄经所述当前用户调制的结构光图像;和
解调所述结构光图像的各个像素对应的相位信息以得到所述当前用户的人脸深度图像;
根据所述当前用户的人脸深度图像和所述结构光图像,生成所述当前用户的人脸3D模型。
进一步的,所述解调所述结构光图像的各个像素对应的相位信息以得到所述当前用户的人脸深度图像,包括:
解调所述结构光图像的各个像素对应的相位信息;
将所述相位信息转化为深度信息;和
根据所述深度信息生成所述人脸深度图像。
进一步的,所述对所述人脸3D模型进行分析,获取所述人脸3D模型中眼部的位置信息,包括:
对所述人脸3D模型进行分析,提取所述人脸3D模型的特征点信息;
将所述人脸3D模型的特征点信息与预存的眼部特征点信息进行比对,确定所述人脸3D模型中眼部的位置信息。
进一步的,所述显示参数包括:亮度和对比度;
所述根据所述观看视角对所述终端设备的显示参数进行调整,包括:
判断所述观看视角是否大于预设视角阈值;
在所述观看视角大于预设视角阈值时,提高所述终端设备的亮度以及对比度。
进一步的,所述的方法还包括:
获取使用所述终端设备的当前用户的数量;
在所述当前用户的数量大于预设数量阈值时,提高所述终端设备的亮度以及对比度。
本发明实施方式的显示参数调整方法,通过向使用终端设备的当前用户进行投影,获取当前用户的人脸3D模型;对人脸3D模型进行分析,获取人脸3D模型中眼部的位置信息;根据眼部的位置信息以及终端设备的位置信息,计算当前用户使用终端设备的观看视角;根据观看视角对终端设备的显示参数进行调整,从而能够在用户位于终端设备的不同位置时,根据用户的位置调整显示参数,使得用户在所在位置能够观看到具有合适亮度和合适对比度的显示屏,提高终端设备显示屏的显示效果,提高用户使用终端设备的体验。
本发明实施方式的显示参数调整装置包括:
深度图像采集组件,所述深度图像采集组件用于向使用终端设备的当前用户进行投影,获取所述当前用户的人脸3D模型;
处理器,所述处理器,用于对所述人脸3D模型进行分析,获取所述人脸3D模型中眼部的位置信息;
根据所述眼部的位置信息以及所述终端设备的位置信息,计算所述当前用户使用所述终端设备的观看视角;
根据所述观看视角对所述终端设备的显示参数进行调整。
进一步的,所述深度图像采集组件包括结构光投射器和结构光摄像头,所述结构光投射器用于向所述当前用户投射结构光;
所述结构光摄像头用于,
拍摄经所述当前用户调制的结构光图像;和
解调所述结构光图像的各个像素对应的相位信息以得到所述当前用户的人脸深度图像;
根据所述当前用户的人脸深度图像和所述结构光图像,生成所述当前用户的人脸3D模型。
进一步的,所述结构光摄像头还用于,
解调所述结构光图像的各个像素对应的相位信息;
将所述相位信息转化为深度信息;和
根据所述深度信息生成所述人脸深度图像。
进一步的,所述处理器还用于,
对所述人脸3D模型进行分析,提取所述人脸3D模型的特征点信息;
将所述人脸3D模型的特征点信息与预存的眼部特征点信息进行比对,确定所述人脸3D模型中眼部的位置信息。
进一步的,所述显示参数包括:亮度和对比度;
所述处理器还用于,
判断所述观看视角是否大于预设视角阈值;
在所述观看视角大于预设视角阈值时,提高所述终端设备的亮度以及对比度。
进一步的,所述处理器还用于,
获取使用所述终端设备的当前用户的数量;
在所述当前用户的数量大于预设数量阈值时,提高所述终端设备的亮度以及对比度。
本发明实施方式的显示参数调整装置,通过向使用终端设备的当前用户进行投影,获取当前用户的人脸3D模型;对人脸3D模型进行分析,获取人脸3D模型中眼部的位置信息;根据眼部的位置信息以及终端设备的位置信息,计算当前用户使用终端设备的观看视角;根据观看视角对终端设备的显示参数进行调整,从而能够在用户位于终端设备的不同位置时,根据用户的位置调整显示参数,使得用户在所在位置能够观看到具有合适亮度和合适对比度的显示屏,提高终端设备显示屏的显示效果,提高用户使用终端设备的体验。
本发明实施方式的电子装置包括一个或多个处理器、存储器和一个或多个程序。其中所述一个或多个程序被存储在所述存储器中,并且被配置成由所述一个或多个处理器执行,所述程序包括用于执行上述的显示参数调整方法的指令。
本发明实施方式的计算机可读存储介质包括与能够摄像的电子装置结合使用的计算机程序,所述计算机程序可被处理器执行以完成上述的显示参数调整方法。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明某些实施方式的显示参数调整方法的流程示意图。
图2是本发明某些实施方式的显示参数调整装置的模块示意图。
图3是本发明某些实施方式的电子装置的结构示意图。
图4是本发明某些实施方式的显示参数调整方法的流程示意图。
图5是本发明某些实施方式的显示参数调整方法的流程示意图。
图6(a)至图6(e)是根据本发明一个实施例的结构光测量的场景示意图。
图7(a)和图7(b)根据本发明一个实施例的结构光测量的场景示意图。
图8是本发明某些实施方式的显示参数调整方法的流程示意图。
图9是本发明某些实施方式的电子装置的模块示意图。
图10是本发明某些实施方式的电子装置的模块示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
请一并参阅图1至2,本发明实施方式的显示参数调整方法用于电子装置1000。显示参数调整方法包括:
S101、向使用终端设备的当前用户进行投影,获取当前用户的人脸3D模型。
S102、对人脸3D模型进行分析,获取人脸3D模型中眼部的位置信息。
S103、根据眼部的位置信息以及终端设备的位置信息,计算当前用户使用终端设备的观看视角。
S104、根据观看视角对终端设备的显示参数进行调整。
请参阅图3,本发明实施方式的显示参数调整方法可以由本发明实施方式的显示参数调整装置100实现。本发明实施方式的显示参数调整装置100用于电子装置1000。显示参数调整装置100包括深度图像采集组件12和处理器20。本实施例中,步骤102、步骤103、步骤104可以由处理器20实现,步骤101可以由深度图像采集组件12实现。另外,显示参数调整装置100还可以包括可见光摄像头11,用于拍摄当前用户所在的场景的图片,以便根据图片识别出当前用户所在的具体方位。
也就是说,深度图像采集组件12用于向使用终端设备的当前用户进行投影,获取当前用户的人脸3D模型;处理器20用于对人脸3D模型进行分析,获取人脸3D模型中眼部的位置信息;根据眼部的位置信息以及终端设备的位置信息,计算当前用户使用终端设备的观看视角;根据观看视角对终端设备的显示参数进行调整。
本实施例中,显示参数包括:亮度和对比度。对应的,处理器20还用于,判断观看视角是否大于预设视角阈值;在观看视角大于预设视角阈值时,提高终端设备的亮度以及对比度。
本实施例中,在与显示屏距离相等的多个位置上,显示屏为不同的观看视角对应的位置提供不同亮度。此处以预设视角阈值包括:第一视角阈值和第二视角阈值为例进行说明。例如,为小于第一视角阈值的观看视角对应的位置提供第一亮度值;为大于第一视角阈值且小于第二视角阈值的观看视角对应的位置提供第一亮度值的一半;为大于第二视角阈值的观看视角对应的位置提供第一亮度值的四分之一。
对应的,当用户的观看视角小于第一视角阈值时,处理器20可以不用对显示屏的亮度进行调整;当用户的观看视角大于第一视角阈值且小于第二视角阈值时,处理器20可以将亮度的数值翻倍;当用户的观看视角大于第二视角阈值时,处理器20可以将亮度的数值乘以4;以便用户处于终端设备的各个位置时,对应位置的显示屏亮度均为合适的亮度。当用户从大于第二视角阈值的观看视角对应的位置,移动到大于第一视角阈值且小于第二视角阈值的观看视角对应的位置时,处理器20可以将亮度的数值减半。当用户从大于第二视角阈值的观看视角对应的位置,移动到小于第一视角阈值的观看视角对应的位置时,处理器20可以将亮度的数值除以4。
本实施例中,在与显示屏距离相等的多个位置上,显示屏为不同的观看视角对应的位置提供不同对比度。例如,为小于第一视角阈值的观看视角对应的位置提供第一对比度值;为大于第一视角阈值且小于第二视角阈值的观看视角对应的位置提供第一对比度值的一半;为大于第二视角阈值的观看视角对应的位置提供第一对比度值的四分之一。
对应的,当用户的观看视角小于第一视角阈值时,处理器20可以不用对显示屏的对比度进行调整;当用户的观看视角大于第一视角阈值且小于第二视角阈值时,处理器20可以将对比度的数值翻倍;当用户的观看视角大于第二视角阈值时,处理器20可以将对比度的数值乘以4;以便用户处于终端设备的各个位置时,对应位置的显示屏对比度均为合适的对比度。当用户从大于第二视角阈值的观看视角对应的位置,移动到大于第一视角阈值且小于第二视角阈值的观看视角对应的位置时,处理器20可以将对比度的数值减半。当用户从大于第二视角阈值的观看视角对应的位置,移动到小于第一视角阈值的观看视角对应的位置时,处理器20可以将对比度的数值除以4。
进一步的,本实施例中,所述的方法还可以包括:获取使用终端设备的当前用户的数量;在当前用户的数量大于预设数量阈值时,提高终端设备的亮度以及对比度。
也就是说,处理器20还用于获取使用终端设备的当前用户的数量;在当前用户的数量大于预设数量阈值时,提高终端设备的亮度以及对比度。
本实施例中,当使用终端设备的当前用户的数量大于预设数量阈值时,为了保证位于不同位置的各个当前用户,都能观看到具有合适的亮度和对比度的显示屏,处理器20可以提高终端设备的亮度以及对比度,使得位于不同位置的各个当前用户,都能观看到具有合适的亮度和对比度的显示屏。其中,预设数量阈值例如可以为1、2等数值。
本发明实施方式的显示参数调整装置100可以应用于本发明实施方式的电子装置1000。也即是说,本发明实施方式的电子装置1000包括本发明实施方式的显示参数调整装置100。
在某些实施方式中,电子装置1000包括手机、平板电脑、笔记本电脑、智能手环、智能手表、智能头盔、智能眼镜等。
本发明实施方式的显示参数调整方法,通过向使用终端设备的当前用户进行投影,获取当前用户的人脸3D模型;对人脸3D模型进行分析,获取人脸3D模型中眼部的位置信息;根据眼部的位置信息以及终端设备的位置信息,计算当前用户使用终端设备的观看视角;根据观看视角对终端设备的显示参数进行调整,从而能够在用户位于终端设备的不同位置时,根据用户的位置调整显示参数,使得用户在所在位置能够观看到具有合适亮度和合适对比度的显示屏,提高终端设备显示屏的显示效果,提高用户使用终端设备的体验。
请参阅图4,在某些实施方式中,步骤101具体可以包括以下步骤:
S1011、向当前用户投射结构光。
S1012、拍摄经当前用户调制的结构光图像。
S1013、解调结构光图像的各个像素对应的相位信息以得到当前用户的人脸深度图像。
S1014、根据当前用户的人脸深度图像和结构光图像,生成当前用户的人脸3D模型。
请再参阅图3,在某些实施方式中,深度图像采集组件12包括结构光投射器121和结构光摄像头122。步骤1011可以由结构光投射器121实现,步骤1012、步骤1013和步骤1014可以由结构光摄像头122实现。
也即是说,结构光投射器121可用于向当前用户投射结构光;结构光摄像头122可用于拍摄经当前用户调制的结构光图像;解调结构光图像的各个像素对应的相位信息以得到当前用户的人脸深度图像;根据当前用户的人脸深度图像和结构光图像,生成当前用户的人脸3D模型。
具体地,结构光投射器121将一定模式的结构光投射到当前用户的面部或躯体上后,在当前用户的面部或躯体的表面会形成由当前用户调制后的结构光图像。结构光摄像头122拍摄经调制后的结构光图像,再对结构光图像进行解调以得到深度图像,进而得到人脸深度图像;结合人脸深度图像以及人脸部位的结构光图像,生成当前用户的人脸3D模型。其中,结构光的模式可以是激光条纹、格雷码、正弦条纹、非均匀散斑等。
请参阅图5,在某些实施方式中,步骤1013解调结构光图像的各个像素对应的相位信息以得到当前用户的人脸深度图像的过程具体可以包括以下步骤:
S10131、解调结构光图像的各个像素对应的相位信息。
S10132、将相位信息转化为深度信息。
S10133、根据深度信息生成人脸深度图像。
请再参阅图2,在某些实施方式中,步骤10131、步骤10132和步骤10133均可以由结构光摄像头122实现。
也即是说,结构光摄像头122可进一步用于解调结构光图像的各个像素对应的相位信息;将相位信息转化为深度信息;和根据深度信息生成人脸深度图像。
具体地,与未经调制的结构光相比,调制后的结构光的相位信息发生了变化,在结构光图像中呈现出的结构光是产生了畸变之后的结构光,其中,变化的相位信息即可表征物体的深度信息。因此,结构光摄像头122首先解调出结构光图像中各个像素对应的相位信息,再根据相位信息计算出深度信息,从而得到最终的人脸深度图像。
为了使本领域的技术人员更加清楚的了解根据结构光来采集当前用户的面部或躯体的深度图像的过程,下面以一种应用广泛的光栅投影技术(条纹投影技术)为例来阐述其具体原理。其中,光栅投影技术属于广义上的面结构光。
如图6(a)所示,在使用面结构光投影的时候,首先通过计算机编程产生正弦条纹,并将正弦条纹通过结构光投射器121投射至被测物,再利用结构光摄像头122拍摄条纹受物体调制后的弯曲程度,随后解调该弯曲条纹得到相位,再将相位转化为深度信息即可获取深度图像。为避免产生误差或误差耦合的问题,使用结构光进行深度信息采集前需对深度图像采集组件12进行参数标定,标定包括几何参数(例如,结构光摄像头122与结构光投射器121之间的相对位置参数等)的标定、结构光摄像头122的内部参数以及结构光投射器121的内部参数的标定等。
具体而言,第一步,计算机编程产生正弦条纹。由于后续需要利用畸变的条纹获取相位,比如采用四步移相法获取相位,因此这里产生四幅相位差为的条纹,然后结构光投射器121将该四幅条纹分时投射到被测物(图6(a)所示的面具)上,结构光摄像头122采集到如图6(b)左边的图,同时要读取如图6(b)右边所示的参考面的条纹。
第二步,进行相位恢复。结构光摄像头122根据采集到的四幅受调制的条纹图(即结构光图像)计算出被调制相位,此时得到的相位图是截断相位图。因为四步移相算法得到的结果是由反正切函数计算所得,因此结构光调制后的相位被限制在[-π,π]之间,也就是说,每当调制后的相位超过[-π,π],其又会重新开始。最终得到的相位主值如图6(c)所示。
其中,在进行相位恢复过程中,需要进行消跳变处理,即将截断相位恢复为连续相位。如图6(d)所示,左边为受调制的连续相位图,右边是参考连续相位图。
第三步,将受调制的连续相位和参考连续相位相减得到相位差(即相位信息),该相位差表征了被测物相对参考面的深度信息,再将相位差代入相位与深度的转化公式(公式中涉及到的参数经过标定),即可得到如图6(e)所示的待测物体的三维模型。
应当理解的是,在实际应用中,根据具体应用场景的不同,本发明实施例中所采用的结构光除了上述光栅之外,还可以是其他任意图案。
作为一种可能的实现方式,本发明还可使用散斑结构光进行当前用户的深度信息的采集。
具体地,散斑结构光获取深度信息的方法是使用一基本为平板的衍射元件,该衍射元件具有特定相位分布的浮雕衍射结构,横截面为具有两个或多个凹凸的台阶浮雕结构。衍射元件中基片的厚度大致为1微米,各个台阶的高度不均匀,高度的取值范围可为0.7微米~0.9微米。图7(a)所示结构为本实施例的准直分束元件的局部衍射结构。图7(b)为沿截面A-A的剖面侧视图,横坐标和纵坐标的单位均为微米。散斑结构光生成的散斑图案具有高度的随机性,并且会随着距离的不同而变换图案。因此,在使用散斑结构光获取深度信息前,首先需要标定出空间中的散斑图案,例如,在距离结构光摄像头122的0~4米的范围内,每隔1厘米取一个参考平面,则标定完毕后就保存了400幅散斑图像,标定的间距越小,获取的深度信息的精度越高。随后,结构光投射器121将散斑结构光投射到被测物(即当前用户)上,被测物表面的高度差使得投射到被测物上的散斑结构光的散斑图案发生变化。结构光摄像头122拍摄投射到被测物上的散斑图案(即结构光图像)后,再将散斑图案与前期标定后保存的400幅散斑图像逐一进行互相关运算,进而得到400幅相关度图像。空间中被测物体所在的位置会在相关度图像上显示出峰值,把上述峰值叠加在一起并经过插值运算后即可得到被测物的深度信息。
由于普通的衍射元件对光束进行衍射后得到多数衍射光,但每束衍射光光强差别大,对人眼伤害的风险也大。即便是对衍射光进行二次衍射,得到的光束的均匀性也较低。因此,利用普通衍射元件衍射的光束对被测物进行投射的效果较差。本实施例中采用准直分束元件,该元件不仅具有对非准直光束进行准直的作用,还具有分光的作用,即经反射镜反射的非准直光经过准直分束元件后往不同的角度出射多束准直光束,且出射的多束准直光束的截面面积近似相等,能量通量近似相等,进而使得利用该光束衍射后的散点光进行投射的效果更好。同时,激光出射光分散至每一束光,进一步降低了伤害人眼的风险,且散斑结构光相对于其他排布均匀的结构光来说,达到同样的采集效果时,散斑结构光消耗的电量更低。
请参阅图8,在某些实施方式中,步骤102具体可以包括以下步骤:
S1021、对人脸3D模型进行分析,提取人脸3D模型的特征点信息。
S1022、将人脸3D模型的特征点信息与预存的眼部特征点信息进行比对,确定人脸3D模型中眼部的位置信息。
请再参阅图2,在某些实施方式中,步骤1021和步骤1022均可以由处理器20实现。
也即是说,处理器20可进一步用于对人脸3D模型进行分析,提取人脸3D模型的特征点信息;将人脸3D模型的特征点信息与预存的眼部特征点信息进行比对,确定人脸3D模型中眼部的位置信息。
其中,步骤102之前,处理器20可以向终端设备用户投射结构光;拍摄经终端设备用户调制的结构光图像;和解调结构光图像的各个像素对应的相位信息以得到终端设备用户的人脸深度图像;根据终端设备用户的人脸深度图像和结构光图像,生成终端设备用户的人脸3D模型;对终端设备用户的人脸3D模型进行分析,提取其中眼部的特征点信息进行存储,以便进行比对。或者,处理器20也可以提前预存其他用户眼部的特征点信息,以便进行比对。
请一并参阅图3和图9,本发明实施方式还提出一种电子装置1000。电子装置1000包括显示参数调整装置100。显示参数调整装置100可以利用硬件和/或软件实现。显示参数调整装置100包括成像设备10和处理器20。
成像设备10包括可见光摄像头11和深度图像采集组件12。
具体地,可见光摄像头11包括图像传感器111和透镜112。其中,图像传感器111包括彩色滤镜阵列(如Bayer滤镜阵列),透镜112的个数可为一个或多个。图像传感器111中的每一个成像像素感应来自拍摄场景中的光强度和波长信息,生成一组原始图像数据;图像传感器111将该组原始图像数据发送至处理器20中,处理器20对原始图像数据进行去噪、插值等运算后即得到彩色的图像;处理器20可按多种格式对原始图像数据中的每个图像像素逐一处理,例如,每个图像像素可具有8、10、12或14比特的位深度,处理器20可按相同或不同的位深度对每一个图像像素进行处理。
深度图像采集组件12包括结构光投射器121和结构光摄像头122,深度图像采集组件12可用于捕捉当前用户的深度信息以得到人脸深度图像。结构光投射器121用于将结构光投射至当前用户,其中,结构光图案可以是激光条纹、格雷码、正弦条纹或者随机排列的散斑图案等。结构光摄像头122包括图像传感器1221和透镜1222,透镜1222的个数可为一个或多个。图像传感器1221用于捕捉结构光投射器121投射至当前用户上的结构光图像。结构光图像可由深度采集组件12发送至处理器20进行解调、相位恢复、相位信息计算等处理以获取当前用户的深度信息,进而获取当前用户的人脸深度图像以及人脸3D模型。
在某些实施方式中,可见光摄像头11与结构光摄像头122的功能可由一个摄像头实现,也即是说,成像设备10仅包括一个摄像头和一个结构光投射器121,上述摄像头不仅可以拍摄原始图像,还可拍摄结构光图像。
除了采用结构光获取人脸深度图像外,还可通过双目视觉方法、基于飞行时间差(Time of Flight,TOF)等深度像获取方法来获取当前用户的人脸深度图像。
处理器20进一步用于对人脸3D模型进行分析,获取人脸3D模型中眼部的位置信息;根据眼部的位置信息以及终端设备的位置信息,计算当前用户使用终端设备的观看视角;根据观看视角对终端设备的显示参数进行调整。
此外,显示参数调整装置100还包括图像存储器30。图像存储器30可内嵌在电子装置1000中,也可以是独立于电子装置1000外的存储器,并可包括直接存储器存取(DirectMemory Access,DMA)特征。可见光摄像头11采集的图像数据或深度图像采集组件12采集的结构光图像相关数据均可传送至图像存储器30中进行存储或缓存。处理器20可从图像存储器30中读取原始图像数据,也可从图像存储器30中读取结构光图像相关数据以进行处理得到深度图像。另外,图像数据和深度图像还可存储在图像存储器30中,以供处理器20随时调用处理。
显示参数调整装置100还可包括显示器50。显示器50可直接显示当前用户的人脸3D模型以供用户查看,或者由图形引擎或图形处理器(Graphics Processing Unit,GPU)进行进一步的处理。显示参数调整装置100还包括编码器/解码器60,编码器/解码器60可编解码深度图像等的图像数据,编码的图像数据可被保存在图像存储器30中,并可以在图像显示在显示器50上之前由解码器解压缩以进行显示。编码器/解码器60可由中央处理器(Central Processing Unit,CPU)、GPU或协处理器实现。换言之,编码器/解码器60可以是中央处理器(Central Processing Unit,CPU)、GPU、及协处理器中的任意一种或多种。
显示参数调整装置100还包括控制逻辑器40。成像设备10在成像时,处理器20会根据成像设备获取的数据进行分析以确定成像设备10的一个或多个控制参数(例如,曝光时间等)的图像统计信息。处理器20将图像统计信息发送至控制逻辑器40,控制逻辑器40控制成像设备10以确定好的控制参数进行成像。控制逻辑器40可包括执行一个或多个例程(如固件)的处理器和/或微控制器。一个或多个例程可根据接收的图像统计信息确定成像设备10的控制参数。
请参阅图10,本发明实施方式的电子装置1000包括一个或多个处理器200、存储器300和一个或多个程序310。其中一个或多个程序310被存储在存储器300中,并且被配置成由一个或多个处理器200执行。程序310包括用于执行上述任意一项实施方式的显示参数调整方法的指令。
例如,程序310包括用于执行以下步骤所述的显示参数调整方法的指令:
向使用终端设备的当前用户进行投影,获取所述当前用户的人脸3D模型;
对所述人脸3D模型进行分析,获取所述人脸3D模型中眼部的位置信息;
根据所述眼部的位置信息以及所述终端设备的位置信息,计算所述当前用户使用所述终端设备的观看视角;
根据所述观看视角对所述终端设备的显示参数进行调整。
再例如,程序310还包括用于执行以下步骤所述的显示参数调整方法的指令:
向所述当前用户投射结构光;
拍摄经所述当前用户调制的结构光图像;和
解调所述结构光图像的各个像素对应的相位信息以得到所述当前用户的人脸深度图像;
根据所述当前用户的人脸深度图像和所述结构光图像,生成所述当前用户的人脸3D模型。
本发明实施方式的计算机可读存储介质包括与能够摄像的电子装置1000结合使用的计算机程序。计算机程序可被处理器200执行以完成上述任意一项实施方式的显示参数调整方法。
例如,计算机程序可被处理器200执行以完成以下步骤所述的显示参数调整方法:
解调所述结构光图像的各个像素对应的相位信息;
将所述相位信息转化为深度信息;和
根据所述深度信息生成所述人脸深度图像。
再例如,计算机程序还可被处理器200执行以完成以下步骤所述的显示参数调整方法:
对所述人脸3D模型进行分析,提取所述人脸3D模型的特征点信息;
将所述人脸3D模型的特征点信息与预存的眼部特征点信息进行比对,确定所述人脸3D模型中眼部的位置信息。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行***、装置或设备(如基于计算机的***、包括处理器的***或其他可以从指令执行***、装置或设备取指令并执行指令的***)使用,或结合这些指令执行***、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行***、装置或设备或结合这些指令执行***、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行***执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (14)
1.一种显示参数调整方法,其特征在于,包括:
向使用终端设备的当前用户进行投影,获取所述当前用户的人脸3D模型;
对所述人脸3D模型进行分析,获取所述人脸3D模型中眼部的位置信息;
根据所述眼部的位置信息以及所述终端设备的位置信息,计算所述当前用户使用所述终端设备的观看视角;
根据所述观看视角对所述终端设备的显示参数进行调整。
2.根据权利要求1所述的方法,其特征在于,所述向使用终端的当前用户进行投影,获取所述当前用户的人脸3D模型,包括:
向所述当前用户投射结构光;
拍摄经所述当前用户调制的结构光图像;和
解调所述结构光图像的各个像素对应的相位信息以得到所述当前用户的人脸深度图像;
根据所述当前用户的人脸深度图像和所述结构光图像,生成所述当前用户的人脸3D模型。
3.根据权利要求2所述的方法,其特征在于,所述解调所述结构光图像的各个像素对应的相位信息以得到所述当前用户的人脸深度图像,包括:
解调所述结构光图像的各个像素对应的相位信息;
将所述相位信息转化为深度信息;和
根据所述深度信息生成所述人脸深度图像。
4.根据权利要求1所述的方法,其特征在于,所述对所述人脸3D模型进行分析,获取所述人脸3D模型中眼部的位置信息,包括:
对所述人脸3D模型进行分析,提取所述人脸3D模型的特征点信息;
将所述人脸3D模型的特征点信息与预存的眼部特征点信息进行比对,确定所述人脸3D模型中眼部的位置信息。
5.根据权利要求1所述的方法,其特征在于,所述显示参数包括:亮度和对比度;
所述根据所述观看视角对所述终端设备的显示参数进行调整,包括:
判断所述观看视角是否大于预设视角阈值;
在所述观看视角大于预设视角阈值时,提高所述终端设备的亮度以及对比度。
6.根据权利要求1所述的方法,其特征在于,还包括:
获取使用所述终端设备的当前用户的数量;
在所述当前用户的数量大于预设数量阈值时,提高所述终端设备的亮度以及对比度。
7.一种显示参数调整装置,其特征在于,包括:
深度图像采集组件,所述深度图像采集组件用于向使用终端设备的当前用户进行投影,获取所述当前用户的人脸3D模型;
处理器,所述处理器,用于对所述人脸3D模型进行分析,获取所述人脸3D模型中眼部的位置信息;
根据所述眼部的位置信息以及所述终端设备的位置信息,计算所述当前用户使用所述终端设备的观看视角;
根据所述观看视角对所述终端设备的显示参数进行调整。
8.根据权利要求7所述的装置,其特征在于,所述深度图像采集组件包括结构光投射器和结构光摄像头,所述结构光投射器用于向所述当前用户投射结构光;
所述结构光摄像头用于,
拍摄经所述当前用户调制的结构光图像;和
解调所述结构光图像的各个像素对应的相位信息以得到所述当前用户的人脸深度图像;
根据所述当前用户的人脸深度图像和所述结构光图像,生成所述当前用户的人脸3D模型。
9.根据权利要求8所述的装置,其特征在于,所述结构光摄像头还用于,
解调所述结构光图像的各个像素对应的相位信息;
将所述相位信息转化为深度信息;和
根据所述深度信息生成所述人脸深度图像。
10.根据权利要求7所述的装置,其特征在于,所述处理器还用于,
对所述人脸3D模型进行分析,提取所述人脸3D模型的特征点信息;
将所述人脸3D模型的特征点信息与预存的眼部特征点信息进行比对,确定所述人脸3D模型中眼部的位置信息。
11.根据权利要求7所述的装置,其特征在于,所述显示参数包括:亮度和对比度;
所述处理器还用于,
判断所述观看视角是否大于预设视角阈值;
在所述观看视角大于预设视角阈值时,提高所述终端设备的亮度以及对比度。
12.根据权利要求7所述的装置,其特征在于,所述处理器还用于,
获取使用所述终端设备的当前用户的数量;
在所述当前用户的数量大于预设数量阈值时,提高所述终端设备的亮度以及对比度。
13.一种电子装置,其特征在于,所述电子装置包括:
一个或多个处理器;
存储器;和
一个或多个程序,其中所述一个或多个程序被存储在所述存储器中,并且被配置成由所述一个或多个处理器执行,所述程序包括用于执行权利要求1至6任意一项所述的显示参数调整方法的指令。
14.一种计算机可读存储介质,其特征在于,包括与能够摄像的电子装置结合使用的计算机程序,所述计算机程序可被处理器执行以完成权利要求1至6任意一项所述的显示参数调整方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711038000.0A CN107807806A (zh) | 2017-10-27 | 2017-10-27 | 显示参数调整方法、装置及电子装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711038000.0A CN107807806A (zh) | 2017-10-27 | 2017-10-27 | 显示参数调整方法、装置及电子装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107807806A true CN107807806A (zh) | 2018-03-16 |
Family
ID=61582587
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711038000.0A Pending CN107807806A (zh) | 2017-10-27 | 2017-10-27 | 显示参数调整方法、装置及电子装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107807806A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108668008A (zh) * | 2018-03-30 | 2018-10-16 | 广东欧珀移动通信有限公司 | 电子装置、显示参数调整方法及相关产品 |
CN110236551A (zh) * | 2019-05-21 | 2019-09-17 | 西藏纳旺网络技术有限公司 | 用户颈椎倾斜角度的获取方法、装置、电子设备及介质 |
CN110316063A (zh) * | 2018-03-30 | 2019-10-11 | 比亚迪股份有限公司 | 车载显示终端***、车载显示终端的显示控制方法和车辆 |
CN110992915A (zh) * | 2019-11-22 | 2020-04-10 | 京东方科技集团股份有限公司 | 一种显示装置及其显示方法 |
CN111914693A (zh) * | 2020-07-16 | 2020-11-10 | 上海云从企业发展有限公司 | 一种人脸姿态调整方法、***、装置、设备及介质 |
CN112445554A (zh) * | 2019-08-28 | 2021-03-05 | 中兴通讯股份有限公司 | 一种显示效果的调节方法、装置、终端设备及存储介质 |
CN113126944A (zh) * | 2021-05-17 | 2021-07-16 | 北京的卢深视科技有限公司 | 深度图的显示方法、显示装置、电子设备及存储介质 |
CN113840757A (zh) * | 2021-04-30 | 2021-12-24 | 华为技术有限公司 | 一种显示屏调整方法及装置 |
US11393381B2 (en) * | 2020-06-16 | 2022-07-19 | Hyundai Motor Company | Vehicle and image display method for preventing display color distortion according to a view angle of a driver |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1510973A2 (en) * | 2003-08-29 | 2005-03-02 | Samsung Electronics Co., Ltd. | Method and apparatus for image-based photorealistic 3D face modeling |
CN101339607A (zh) * | 2008-08-15 | 2009-01-07 | 北京中星微电子有限公司 | 人脸识别方法及***、人脸识别模型训练方法及*** |
CN103971408A (zh) * | 2014-05-21 | 2014-08-06 | 中国科学院苏州纳米技术与纳米仿生研究所 | 三维人脸模型生成***及方法 |
CN106157931A (zh) * | 2016-06-28 | 2016-11-23 | 广东欧珀移动通信有限公司 | 控制方法、控制装置及电子装置 |
CN106200926A (zh) * | 2016-06-28 | 2016-12-07 | 广东欧珀移动通信有限公司 | 控制方法、控制装置及电子装置 |
CN106507005A (zh) * | 2016-12-05 | 2017-03-15 | 乐视控股(北京)有限公司 | 背光亮度的调节方法及装置 |
CN106991377A (zh) * | 2017-03-09 | 2017-07-28 | 广东欧珀移动通信有限公司 | 结合深度信息的人脸识别方法、人脸识别装置和电子装置 |
CN107169483A (zh) * | 2017-07-12 | 2017-09-15 | 深圳奥比中光科技有限公司 | 基于人脸识别的任务执行 |
-
2017
- 2017-10-27 CN CN201711038000.0A patent/CN107807806A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1510973A2 (en) * | 2003-08-29 | 2005-03-02 | Samsung Electronics Co., Ltd. | Method and apparatus for image-based photorealistic 3D face modeling |
CN101339607A (zh) * | 2008-08-15 | 2009-01-07 | 北京中星微电子有限公司 | 人脸识别方法及***、人脸识别模型训练方法及*** |
CN103971408A (zh) * | 2014-05-21 | 2014-08-06 | 中国科学院苏州纳米技术与纳米仿生研究所 | 三维人脸模型生成***及方法 |
CN106157931A (zh) * | 2016-06-28 | 2016-11-23 | 广东欧珀移动通信有限公司 | 控制方法、控制装置及电子装置 |
CN106200926A (zh) * | 2016-06-28 | 2016-12-07 | 广东欧珀移动通信有限公司 | 控制方法、控制装置及电子装置 |
CN106507005A (zh) * | 2016-12-05 | 2017-03-15 | 乐视控股(北京)有限公司 | 背光亮度的调节方法及装置 |
CN106991377A (zh) * | 2017-03-09 | 2017-07-28 | 广东欧珀移动通信有限公司 | 结合深度信息的人脸识别方法、人脸识别装置和电子装置 |
CN107169483A (zh) * | 2017-07-12 | 2017-09-15 | 深圳奥比中光科技有限公司 | 基于人脸识别的任务执行 |
Non-Patent Citations (1)
Title |
---|
肖嵩等: "《计算机图形学原理及应用》", 30 June 2014 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108668008A (zh) * | 2018-03-30 | 2018-10-16 | 广东欧珀移动通信有限公司 | 电子装置、显示参数调整方法及相关产品 |
CN110316063A (zh) * | 2018-03-30 | 2019-10-11 | 比亚迪股份有限公司 | 车载显示终端***、车载显示终端的显示控制方法和车辆 |
CN108668008B (zh) * | 2018-03-30 | 2021-04-16 | Oppo广东移动通信有限公司 | 电子装置、显示参数调整方法和装置及计算机可读存储介质 |
CN110236551A (zh) * | 2019-05-21 | 2019-09-17 | 西藏纳旺网络技术有限公司 | 用户颈椎倾斜角度的获取方法、装置、电子设备及介质 |
CN112445554A (zh) * | 2019-08-28 | 2021-03-05 | 中兴通讯股份有限公司 | 一种显示效果的调节方法、装置、终端设备及存储介质 |
CN110992915A (zh) * | 2019-11-22 | 2020-04-10 | 京东方科技集团股份有限公司 | 一种显示装置及其显示方法 |
US11393381B2 (en) * | 2020-06-16 | 2022-07-19 | Hyundai Motor Company | Vehicle and image display method for preventing display color distortion according to a view angle of a driver |
CN111914693A (zh) * | 2020-07-16 | 2020-11-10 | 上海云从企业发展有限公司 | 一种人脸姿态调整方法、***、装置、设备及介质 |
CN113840757A (zh) * | 2021-04-30 | 2021-12-24 | 华为技术有限公司 | 一种显示屏调整方法及装置 |
CN113126944A (zh) * | 2021-05-17 | 2021-07-16 | 北京的卢深视科技有限公司 | 深度图的显示方法、显示装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107807806A (zh) | 显示参数调整方法、装置及电子装置 | |
CN107797664A (zh) | 内容显示方法、装置及电子装置 | |
CN107610077A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107742296A (zh) | 动态图像生成方法和电子装置 | |
CN107734267A (zh) | 图像处理方法和装置 | |
CN107509045A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107707831A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107707835A (zh) | 图像处理方法及装置、电子装置和计算机可读存储介质 | |
CN107995434A (zh) | 图像获取方法、电子装置和计算机可读存储介质 | |
CN107734264A (zh) | 图像处理方法和装置 | |
CN107707838A (zh) | 图像处理方法和装置 | |
CN107610078A (zh) | 图像处理方法和装置 | |
CN107509043A (zh) | 图像处理方法及装置 | |
CN107705277A (zh) | 图像处理方法和装置 | |
CN107644440A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107613383A (zh) | 视频音量调节方法、装置及电子装置 | |
CN107705278A (zh) | 动态效果的添加方法和终端设备 | |
CN107742300A (zh) | 图像处理方法、装置、电子装置和计算机可读存储介质 | |
CN107610127A (zh) | 图像处理方法、装置、电子装置和计算机可读存储介质 | |
CN107527335A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107610076A (zh) | 图像处理方法和装置、电子装置和计算机可读存储介质 | |
CN107454336A (zh) | 图像处理方法及装置、电子装置和计算机可读存储介质 | |
CN107682740A (zh) | 在视频中合成音频方法和电子装置 | |
CN107613223A (zh) | 图像处理方法及装置、电子装置和计算机可读存储介质 | |
CN107592491A (zh) | 视频通信背景显示方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180316 |