CN116449968A - 一种计算机屏幕控制方法、装置及计算设备 - Google Patents
一种计算机屏幕控制方法、装置及计算设备 Download PDFInfo
- Publication number
- CN116449968A CN116449968A CN202310730773.4A CN202310730773A CN116449968A CN 116449968 A CN116449968 A CN 116449968A CN 202310730773 A CN202310730773 A CN 202310730773A CN 116449968 A CN116449968 A CN 116449968A
- Authority
- CN
- China
- Prior art keywords
- screen
- user
- face
- dimensional
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 72
- 239000011159 matrix material Substances 0.000 claims description 24
- 230000008569 process Effects 0.000 claims description 18
- 238000001514 detection method Methods 0.000 claims description 14
- 230000009466 transformation Effects 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 4
- 230000000694 effects Effects 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 208000003464 asthenopia Diseases 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005215 recombination Methods 0.000 description 2
- 230000006798 recombination Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000003631 expected effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/70—Multimodal biometrics, e.g. combining information from different biometric modalities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Ophthalmology & Optometry (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种计算机屏幕控制方法、装置及计算设备,涉及计算机技术领域,方法包括:根据人脸特征点的三维坐标构建人脸三维图形模型,以及根据至少四个定位点的三维坐标和屏幕的参数信息构建屏幕三维图形模型;根据人脸三维图形模型和屏幕三维图形模型,检测用户脸部朝向是否与屏幕的朝向匹配,若是,则对用户脸部的眼睛进行识别定位,并获取用户眼睛状态,根据用户眼睛状态检测用户眼睛的舒适度等级,若否,则调整屏幕的朝向,以使屏幕的朝向与用户脸部朝向匹配;根据用户眼睛的舒适度等级,调节屏幕亮度,以及调整屏幕的位置。本发明可以快速、准确地识别用户脸部朝向和眼睛状态,进而调整屏幕位置和亮度,可以更好地适应复杂的使用场景。
Description
技术领域
本发明涉及计算机技术领域,特别是指一种计算机屏幕控制方法、装置及计算设备。
背景技术
在现代生活中,电子设备的使用已经成为人们日常不可或缺的一部分。计算机显示器作为人们工作、学习和娱乐的重要工具,在不同的使用场景中发挥着重要作用。然而,由于各种因素的影响,如屏幕朝向、屏幕亮度等,使用显示器时经常会出现眼睛疲劳等问题,给用户带来不便和不良体验。
为了解决这一问题,已经提出了许多屏幕控制技术。例如,一些技术利用环境光传感器等设备来自动调节屏幕亮度,以适应不同的环境光线,尽管这些技术已经取得了一定的进展,但仍有许多问题需要解决。例如,当环境非常暗或太亮时,环境光传感器可能会失去精度。
发明内容
本发明要解决的技术问题是提供一种计算机屏幕控制方法、装置及计算设备,可以快速、准确地识别用户脸部朝向和眼睛状态,进而调整屏幕位置和亮度,还可以更好地适应复杂的使用场景。
为解决上述技术问题,本发明的技术方案如下:
第一方面,一种计算机屏幕控制方法,所述方法包括:
获取用户在使用屏幕过程中的图像,提取所述图像中的至少一个人脸特征点,并计算所述人脸特征点的三维坐标;
获取屏幕上的至少四个定位点,并计算所述定位点的三维坐标,所述定位点用于对所述屏幕进行定位,以确定所述屏幕的朝向;
根据所述人脸特征点的三维坐标构建人脸三维图形模型,以及根据至少四个定位点的三维坐标和屏幕的参数信息构建屏幕三维图形模型;
根据所述人脸三维图形模型和屏幕三维图形模型,检测用户脸部朝向是否与屏幕的朝向匹配,若是,则对所述用户脸部的眼睛进行识别定位,并获取用户眼睛状态,根据所述用户眼睛状态检测用户眼睛的舒适度等级,若否,则调整屏幕的朝向,以使屏幕的朝向与用户脸部朝向匹配;
根据用户眼睛的舒适度等级,调节所述屏幕亮度,以及调整所述屏幕的位置。
进一步的,获取用户在使用屏幕过程中的图像,提取所述图像中的至少一个人脸特征点,并计算所述人脸特征点的三维坐标,包括:
通过摄像头获取用户在使用屏幕过程中的图像;
对所述图像进行预处理,以得到预处理图像,使用人脸检测模型对预处理图像进行人脸检测,以确定人脸在预处理图像中的具***置,使用特征点检测模型对图像进行检测,检测出图像中双眼的位置坐标;
根据双眼的位置坐标对图像进行对齐,并提取人脸特征点;
将人脸特征点的二维坐标映射到三维空间中,并计算出人脸特征点对应的三维坐标。
进一步的,获取屏幕上的至少四个定位点,并计算所述定位点的三维坐标,包括:
选择至少四个能够确定屏幕位置的定位点;
根据所述定位点,获取所述定位点在相机图像中的二维坐标,并根据相机的内外参数以及定位点在相机图像中的位置,计算定位点在相机坐标系下的三维坐标;
利用相机和屏幕之间的位姿关系,将定位点的相机坐标转换为世界坐标系下的三维坐标。
进一步的,利用相机和屏幕之间的位姿关系,将定位点的相机坐标转换为世界坐标系下的三维坐标,包括:
获得定位点在相机坐标系下的坐标及对应的深度信息,以及获得屏幕在世界坐标系下的位置和旋转矩阵;
通过旋转矩阵变换将屏幕的坐标系与相机的坐标系进行匹配,以实现将屏幕坐标系下的点变换到相机坐标系下;
将定位点对应的相机坐标系下的坐标乘以相机外参矩阵,得到在世界坐标系下定位点的三维坐标。
进一步的,根据所述人脸特征点的三维坐标构建人脸三维图形模型,以及根据至少四个定位点的三维坐标和屏幕的参数信息构建屏幕三维图形模型,包括:
根据所述人脸特征点的三维坐标,使用三角测量法生成人脸三维图形模型;
获取屏幕的参数信息,并通过反推计算出屏幕三维图形模型。
进一步的,根据所述人脸三维图形模型和屏幕三维图形模型,检测用户脸部朝向是否与屏幕的朝向匹配,包括:
通过计算人脸特征点的三维坐标得到用户脸部的方向向量,并将用户脸部的方向向量归一化,其中,所述用户脸部的方向向量为(x 1 ,y 1 ,z 1 ),所述用户脸部的朝向向量为:
;
根据所述屏幕三维图形模型,计算屏幕的法向量,并根据所述法向量确定所述屏幕的朝向,其中,所述法向量为:
,
其中,(x 2 ,y 2 ,z 2 )为所述法向量的三个分量;
根据所述用户脸部的朝向向量与所述法向量,计算所述用户脸部的朝向向量与所述法向量的夹角θ,若∣θ∣<δ,则用户面部朝向与屏幕的朝向相匹配;若∣θ∣≥δ,则用户面部朝向与屏幕的朝向不匹配,其中,δ为用户脸部的朝向向量和法向量之间的容错范围。
进一步的,根据用户眼睛的舒适度等级,调节所述屏幕亮度,以及调整所述屏幕的位置,包括:
当用户眼睛舒适度等级范围为0.1至0.3时,则调节屏幕的亮度和对比度,并通过气缸驱动所述屏幕抬高以及通过电机驱动所述屏幕倾斜,以调节屏幕与用户视线之间的夹角。
第二方面,一种计算机屏幕控制装置,包括:
获取模块,用于获取用户在使用屏幕过程中的图像,提取所述图像中的至少一个人脸特征点,并计算所述人脸特征点的三维坐标;获取屏幕上的至少四个定位点,并计算所述定位点的三维坐标,所述定位点用于对所述屏幕进行定位,以确定所述屏幕的朝向;
处理模块,用于根据所述人脸特征点的三维坐标构建人脸三维图形模型,以及根据至少四个定位点的三维坐标和屏幕的参数信息构建屏幕三维图形模型;根据所述人脸三维图形模型和屏幕三维图形模型,检测用户脸部朝向是否与屏幕的朝向匹配,若是,则对所述用户脸部的眼睛进行识别定位,并获取用户眼睛状态,根据所述用户眼睛状态检测用户眼睛的舒适度等级,若否,则调整屏幕的朝向,以使屏幕的朝向与用户脸部朝向匹配;根据用户眼睛的舒适度等级,调节所述屏幕亮度,以及调整所述屏幕的位置。
第三方面,一种计算设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现所述的方法。
第四方面,一种计算机可读存储介质,所述计算机可读存储介质中存储有程序,该程序被处理器执行时实现所述的方法。
本发明的上述方案至少包括以下有益效果:
本发明的上述方案,通过获取用户在使用屏幕过程中的图像,并提取图像中的至少一个人脸特征点,计算人脸特征点的三维坐标,同时,该方法还需要获取屏幕上的至少四个定位点,并计算定位点的三维坐标以确定屏幕的朝向,通过将人脸特征点的三维坐标构建为人脸三维图形模型,并将定位点的三维坐标和屏幕参数信息构建为屏幕三维图形模型,该方法可以检测用户脸部朝向是否与屏幕的朝向匹配,可以快速、准确地识别用户脸部朝向和眼睛状态,进而调整屏幕位置和亮度,还可以更好地适应复杂的使用场景。
附图说明
图1是本发明的实施例提供的计算机屏幕控制方法的流程示意图。
图2是本发明的实施例提供的计算机屏幕控制装置示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
如图1所示,本发明的实施例提出一种计算机屏幕控制方法,所述方法包括以下步骤:
步骤11,获取用户在使用屏幕过程中的图像,提取所述图像中的至少一个人脸特征点,并计算所述人脸特征点的三维坐标;
步骤12,获取屏幕上的至少四个定位点,并计算所述定位点的三维坐标,所述定位点用于对所述屏幕进行定位,以确定所述屏幕的朝向;
步骤13,根据所述人脸特征点的三维坐标构建人脸三维图形模型,以及根据至少四个定位点的三维坐标和屏幕的参数信息构建屏幕三维图形模型;
步骤14,根据所述人脸三维图形模型和屏幕三维图形模型,检测用户脸部朝向是否与屏幕的朝向匹配,若是,则对所述用户脸部的眼睛进行识别定位,并获取用户眼睛状态,根据所述用户眼睛状态检测用户眼睛的舒适度等级,若否,则调整屏幕的朝向,以使屏幕的朝向与用户脸部朝向匹配;
步骤15,根据用户眼睛的舒适度等级,调节所述屏幕亮度,以及调整所述屏幕的位置。
在本发明实施例中,在步骤11中,获取用户的图像,并从中提取人脸特征点,如眼睛、嘴巴等部位的坐标,然后计算这些特征点的三维坐标。在步骤12中,获取屏幕上至少四个明显的定位点(如显示器的四个角落、边缘等),通过计算它们的三维坐标来确定屏幕在空间中的位置和方向,优选的采用六个。在步骤13中,基于步骤11和12中获取的人脸特征点和屏幕定位点坐标,建立人脸三维图形模型和屏幕三维图形模型,为后续的屏幕控制做准备。在步骤14中,通过比较人脸三维图形模型和屏幕三维图形模型,判断用户脸部朝向是否与屏幕朝向匹配,如果不匹配,则需要调整屏幕的方向,以便屏幕始终保持朝向用户,同时,还要根据用户眼睛的状态判断眼睛对屏幕的舒适度,以便更好地适应用户的使用环境。在步骤15中,基于步骤14中获取的用户眼睛状态,调整屏幕的亮度和位置,以最大程度地提高用户的视觉舒适度,该步骤是为了进一步优化本***的视觉效果。
在本发明一优选的实施例中,上述步骤11,可以包括:
步骤111,通过摄像头获取用户在使用屏幕过程中的图像;
步骤112,对所述图像进行预处理,以得到预处理图像,使用人脸检测模型对预处理图像进行人脸检测,以确定人脸在预处理图像中的具***置,使用特征点检测模型对图像进行检测,检测出图像中双眼的位置坐标;
步骤113,根据双眼的位置坐标对图像进行对齐,并提取人脸特征点;
步骤114,将人脸特征点的二维坐标映射到三维空间中,并计算出人脸特征点对应的三维坐标。
在本发明实施例中,在步骤111中,通过摄像头获取用户在使用屏幕过程中的图像,图像包括眼睛、鼻子、嘴巴等特征点,当采集图像时,可以使用计算机上的摄像头来捕捉用户在使用屏幕时的面部图像,或者可以使用手机、平板等移动设备上的摄像头工具进行捕捉,然后将图像通过数据线或Wi-Fi连接的方式,将手机或平板电脑上的摄像头捕捉到的图像传输至计算机,以便进行后续处理。在步骤112中,在捕捉到图像后,对所述图像进行预处理,其中,预处理包括:将原始图像缩放至标准大小,可以降低计算复杂度,也可以保证后续的算法可以在同样的分辨率下进行处理,缩放过程中需要注意保持宽高比例,避免图像变形;裁剪图像,识别出人脸区域,将原始图像中不包含人脸的部分裁剪掉,因此可以减少计算量,提高识别效率,裁剪后的图像包含完整的人脸区域;增强对比度,通过增强图像的对比度,可以使得图像中的人脸特征更加明显,从而使得后续的算法更容易提取人脸特征;去除噪声,使用高斯模糊去除图像中的噪声,以便提取出清晰的人脸特征;归一化,对预处理后的图像进行归一化,可以保证不同图像的特征维度一致;转化为灰度图像,将彩色图像转化为灰度图像进行处理。
在步骤113中,使用已经训练好的特征点检测模型,检测出图像中双眼的位置坐标,可以为人脸提供准确定位信息,为后续的操作做好准备。在步骤114中,获取摄像头的内参矩阵,然后通过三角化的方法将人脸特征点的二维坐标映射到相机坐标系中的三维坐标,根据人脸的位置、相机参数以及双眼的距离,在三维空间中计算出这些特征点的具***置,从而得到人脸特征点对应的三维坐标。
在本发明一优选的实施例中,上述步骤12,可以包括:
步骤121,选择至少四个能够确定屏幕位置的定位点;
步骤122,根据所述定位点,获取所述定位点在相机图像中的二维坐标,并根据相机的内外参数以及定位点在相机图像中的位置,计算定位点在相机坐标系下的三维坐标;
步骤123,利用相机和屏幕之间的位姿关系,将定位点的相机坐标转换为世界坐标系下的三维坐标。
在本发明实施例中,在步骤121中,选择至少四个能够确定屏幕位置的定位点,通常可以选择屏幕四周的角点、边缘等。在步骤122中,在定位点被选择之后,需要通过相机采集图像,识别出这些定位点在相机图像中的位置,并计算出在相机坐标系下的三维坐标,利用摄像机的内部参数(如焦距、光圈等)和外部参数(如相机位置、朝向等)对图像进行矫正,得到定位点在相机坐标系下的坐标信息。在步骤123中,将定位点的相机坐标转化为世界坐标系下的三维坐标,为此,获取相机与屏幕之间的位姿关系,即相机坐标系和世界坐标系之间的变换矩阵,通过该变换矩阵,可以将相机坐标系下的定位点坐标转换为世界坐标系下的坐标信息。
在本发明一优选的实施例中,上述步骤123,可以包括:
步骤1231,获得定位点在相机坐标系下的坐标及对应的深度信息,以及获得屏幕在世界坐标系下的位置和旋转矩阵;
步骤1232,通过旋转矩阵变换将屏幕的坐标系与相机的坐标系进行匹配,以实现将屏幕坐标系下的点变换到相机坐标系下;
步骤1233,将定位点对应的相机坐标系下的坐标乘以相机外参矩阵,得到在世界坐标系下定位点的三维坐标。
在本发明实施例中,在步骤1231中,根据采集的显示器上的四个定位点来进行记录,在记录时,通过摄像机的内参矩阵来将图像中的二维角点变换到相机坐标系下的三维坐标,使用深度传感器获得相应关键点的深度信息,最后,根据相机坐标系下的相机外参矩阵,将得到的三维坐标和深度信息转换到世界坐标系下,就可以得到定位点在世界坐标系下的坐标和深度信息了。在步骤1232中,使用旋转矩阵和平移向量来表示相机坐标系到世界坐标系的变换关系,通过计算机视觉中的标定技术,得到相机的内参矩阵,即相机像素坐标和相机坐标系之间的转换关系,同时,计算出相机的外参矩阵,即相机坐标系和世界坐标系之间的转换关系。
需要说明的是,在对标定结果进行处理后,得到相机坐标系到屏幕坐标系的旋转矩阵和平移向量,然后,将一个在屏幕坐标系下的点(x s ,y s )转换为相机坐标系下的点(X c , Y c ,Z c ),其中,计算公式为:
,其中,/>为相机坐标系到屏幕坐标系的变换矩阵,为待变换的点在屏幕坐标系下的坐标,R cw 表示旋转矩阵,T wc 表示平移向量,通过这样的矩阵乘法运算,将一个在屏幕坐标系下的点(x s ,y s )转换到相机坐标系下,得到对应的三维坐标(X c ,Y c ,Z c )。
在本发明一优选的实施例中,上述步骤13,可以包括:
步骤131,根据所述人脸特征点的三维坐标,使用三角测量法生成人脸三维图形模型;
步骤132,获取屏幕的参数信息,并通过反推计算出屏幕三维图形模型。
在本发明实施例中,在步骤步骤131中,获得人脸在相机坐标系下的三维图形模型时,具体步骤如下:选取两个不同视角下的图像,检测到对应的特征点,并计算出其在相机坐标系下的三维坐标,通过相机内外参的转换关系,将两个视角下的特征点的相机坐标系下的三维坐标变换到世界坐标系下,在世界坐标系下计算出两个特征点之间的距离,计算出多个特征点在世界坐标系下的三维坐标,利用这些特征点在世界坐标系下的三维坐标,可以进行更加精确的人脸识别。
需要说明的是,在实际应用时,通过采集两个不同视角下的图像,每个图像中有n个特征点,以及两个相机坐标系C 1 和C 2 ,它们之间的平移向量为T,旋转矩阵为R,则对于任意一个特征点i,它在C 1 和C 2 中的坐标分别为 和 />,通过相机内外参的转换关系,将特征点i在相机坐标系下的三维坐标变换到世界坐标系下:
,其中,j表示相机坐标系编号(j=1或者2),/>表示相机坐标系C j 的逆变换矩阵,[R∣T]表示C 2 到C 1 的坐标系变换矩阵,计算出特征点i在世界坐标系下的坐标(X i ,Y i ,Z i ),其中,/>;
;
;
其中,f x 和f y 表示相机的焦距,T ij 表示变换矩阵[R∣T]中的元素。
在本发明一优选的实施例中,上述步骤14,可以包括:
步骤141,通过计算人脸特征点的三维坐标得到用户脸部的方向向量,并将用户脸部的方向向量归一化,其中,所述用户脸部的方向向量为(x 1 ,y 1 ,z 1 ),所述用户脸部的朝向向量为:
;
步骤142,根据所述屏幕三维图形模型,计算屏幕的法向量,并根据所述法向量确定所述屏幕的朝向,其中,所述法向量为:
,
其中,(x 2 ,y 2 ,z 2 )为所述法向量的三个分量;
步骤143,根据所述用户脸部的朝向向量与所述法向量,计算所述用户脸部的朝向向量与所述法向量的夹角θ,若∣θ∣<δ,则用户面部朝向与屏幕的朝向相匹配;若∣θ∣≥δ,则用户面部朝向与屏幕的朝向不匹配,其中,δ为用户脸部的朝向向量和法向量之间的容错范围。
在本发明实施例可以实现根据用户面部朝向的变化,动态调整屏幕显示的内容,从而提高用户体验。
在本发明一优选的实施例中,上述步骤15,可以包括:
步骤151,当用户眼睛舒适度等级范围为0.1至0.3时,则调节屏幕的亮度和对比度,并通过气缸驱动所述屏幕抬高以及通过电机驱动所述屏幕倾斜,以使屏幕与用户视线成一个较小的夹角。
在本发明实施例中,根据用户的眼睛舒适度等级进行屏幕亮度和对比度的调节,并通过气缸驱动屏幕升高、电机驱动屏幕倾斜的方式改变屏幕与用户视线的夹角。为了保证调整后的屏幕角度合适,首先,需要确定一个阈值,表示屏幕与用户视线之间的夹角应该在多大范围内,才能让用户感到舒适。例如,我们可以将该阈值设置为10°,然后,在进行屏幕角度调整之前,测量当前屏幕与用户视线之间的夹角,并计算出当前屏幕与用户视线之间的夹角与理想角度之间的偏差△r,然后判断偏差△r是否超出了设定的阈值,如果△r<-10°,或△r>+10°,则表明屏幕角度已经偏离过多,需要进行进一步调整;否则,屏幕角度已经基本符合要求,可以不再进行调整,通过对调整角度的合适性进行判断,并根据需要进行二次调整,从而更好地满足用户的舒适度需求。
需要说明的是,通过监测用户的眼睛舒适度等级。如果用户的眼睛舒适度等级低,则说明屏幕显示的内容对用户的眼睛造成了负面影响,需要进行调整。接着,对屏幕的亮度和对比度进行调节,使其更加适合用户的视觉需求。例如,根据用户周围环境的光照强度、屏幕显示内容的特点等因素,动态地调整屏幕亮度和对比度,以提高用户的观感体验。根据当前的调整需求,通过气缸驱动屏幕抬高和电机驱动屏幕倾斜的方式,改变屏幕与用户视线的夹角。具体来说,可以通过控制气缸和电机的运转,使屏幕的角度与用户视线成一个较小的夹角,从而减少用户的颈部和眼睛疲劳感。最后,根据用户的反馈,不断地优化屏幕显示效果,并动态调整屏幕的亮度、对比度和角度,以满足用户不同场景下的舒适度需求。因此,通过以上步骤,可以有效地改善屏幕的显示效果,提高用户的视觉体验,并保护用户的健康。
需要说明的是,在实际应用时,根据用户的眼睛舒适度等级可以智能调节屏幕亮度和对比度,其具体包括:获取当前环境的亮度值和颜色温度,可以利用传感器来监测周围环境的亮度和颜色,并获得当前环境的亮度值和颜色温度;获取当前屏幕的物理分辨率、屏幕大小、亮度、对比度值、屏幕类型、显示的颜色等信息,可以通过***API获取当前屏幕的物理分辨率、屏幕大小、亮度、对比度值、屏幕类型、显示的颜色等信息;获取用户的需求,用户通过软件或者***UI设置亮度和对比度值的需求将被获取到。获取设备型号,不同的设备型号将会对亮度和对比度的计算产生重要影响,因为不同的设备配置、分辨率、屏幕类型等因素都会对亮度和对比度的计算产生影响。
其中,获取用户眼睛舒适度等级,可以确保调整后的屏幕亮度和对比度不会对用户的视觉造成过度刺激,同时还可以保证显示效果的良好,具体而言,可以通过一些特定的阈值或范围来限制眼睛舒适度等级系数的取值范围,例如将用户眼睛舒适度等级限制在0.1到1之间,以确保系数不会太小或太大,从而影响调整效果,其中,用户眼睛舒适度等级从0.1至1依次增高,当在0.1至0.3时舒适度等级为低,当在0.4至0.7时舒适度等级为中,当在0.8至1时舒适度等级为高,另外,如果发现某些用户的眼睛舒适度有较大差异,也可以分别设置不同的系数范围,以满足不同用户的需求,具体地,可以根据如下公式计算得出调整后屏幕的新亮度和对比度值:
新亮度值=用户需求亮度值×用户需求系数+环境亮度值×环境系数+屏幕大小系数×颜色系数×屏幕类型系数×物理分辨率系数×设备型号系数×眼睛舒适度系数;
新对比度值=用户需求对比度值×用户需求系数+环境亮度值×环境系数+屏幕大小系数×颜色系数×屏幕类型系数×物理分辨率系数×设备型号系数×眼睛舒适度系数;
其中,环境系数、用户需求系数、屏幕大小系数、颜色系数、屏幕类型系数、物理分辨率系数、设备型号系数、眼睛舒适度系数等都是可以根据实际情况设定的权重系数。具体而言,环境系数描述的是环境对亮度和对比度的影响程度,用户需求系数描述的是用户需求对亮度和对比度的影响程度,屏幕大小系数描述的是屏幕大小对亮度和对比度的影响程度,颜色系数描述的是显示色彩对亮度和对比度的影响程度,屏幕类型系数描述的是屏幕类型(如LCD、OLED等)对亮度和对比度的影响程度,物理分辨率系数描述的是物理分辨率对亮度和对比度的影响程度,设备型号系数描述的是设备配置对亮度和对比度的影响程度,眼睛舒适度系数描述的是用户眼睛舒适度等级对亮度和对比度的影响程度。
需要说明的是,当调整显示器后,还可以进一步的判断亮度和对比度是否调整成功,可以根据用户反馈或者环境检测结果,判断亮度和对比度是否达到了预期效果。通过不断优化屏幕亮度和对比度,在实际使用中,可以不断地根据用户反馈和环境变化等因素,调整屏幕亮度和对比度,以达到最佳的显示效果。因此,通过设置用户眼睛舒适度等级这一因素,可以更全面地考虑到环境光线、用户需求、颜色、屏幕类型、设备型号等多方面因素,以及用户的视觉需求,以更精确的方式调节屏幕亮度和对比度,并提供更好的显示体验。
如图2所示,本发明的实施例还提供一种计算机屏幕控制装置20,包括:
获取模块21,用于获取用户在使用屏幕过程中的图像,提取所述图像中的至少一个人脸特征点,并计算所述人脸特征点的三维坐标;获取屏幕上的至少四个定位点,并计算所述定位点的三维坐标,所述定位点用于对所述屏幕进行定位,以确定所述屏幕的朝向;
处理模块22,用于根据所述人脸特征点的三维坐标构建人脸三维图形模型,以及根据至少四个定位点的三维坐标和屏幕的参数信息构建屏幕三维图形模型;根据所述人脸三维图形模型和屏幕三维图形模型,检测用户脸部朝向是否与屏幕的朝向匹配,若是,则对所述用户脸部的眼睛进行识别定位,并获取用户眼睛状态,根据所述用户眼睛状态检测用户眼睛的舒适度等级,若否,则调整屏幕的朝向,以使屏幕的朝向与用户脸部朝向匹配;根据用户眼睛的舒适度等级,调节所述屏幕亮度,以及调整所述屏幕的位置。
可选的,获取用户在使用屏幕过程中的图像,提取所述图像中的至少一个人脸特征点,并计算所述人脸特征点的三维坐标,包括:
通过摄像头获取用户在使用屏幕过程中的图像;
对所述图像进行预处理,以得到预处理图像,使用人脸检测模型对预处理图像进行人脸检测,以确定人脸在预处理图像中的具***置,使用特征点检测模型对图像进行检测,检测出图像中双眼的位置坐标;
根据双眼的位置坐标对图像进行对齐,并提取人脸特征点;
将人脸特征点的二维坐标映射到三维空间中,并计算出人脸特征点对应的三维坐标。
可选的,获取屏幕上的至少四个定位点,并计算所述定位点的三维坐标,包括:
选择至少四个能够确定屏幕位置的定位点;
根据所述定位点,获取所述定位点在相机图像中的二维坐标,并根据相机的内外参数以及定位点在相机图像中的位置,计算定位点在相机坐标系下的三维坐标;
利用相机和屏幕之间的位姿关系,将定位点的相机坐标转换为世界坐标系下的三维坐标。
可选的,利用相机和屏幕之间的位姿关系,将定位点的相机坐标转换为世界坐标系下的三维坐标,包括:
获得定位点在相机坐标系下的坐标及对应的深度信息,以及获得屏幕在世界坐标系下的位置和旋转矩阵;
通过旋转矩阵变换将屏幕的坐标系与相机的坐标系进行匹配,以实现将屏幕坐标系下的点变换到相机坐标系下;
将定位点对应的相机坐标系下的坐标乘以相机外参矩阵,得到在世界坐标系下定位点的三维坐标。
可选的,根据所述人脸特征点的三维坐标构建人脸三维图形模型,以及根据至少四个定位点的三维坐标和屏幕的参数信息构建屏幕三维图形模型,包括:
根据所述人脸特征点的三维坐标,使用三角测量法生成人脸三维图形模型;
获取屏幕的参数信息,并通过反推计算出屏幕三维图形模型。
可选的,根据所述人脸三维图形模型和屏幕三维图形模型,检测用户脸部朝向是否与屏幕的朝向匹配,包括:
通过计算人脸特征点的三维坐标得到用户脸部的方向向量,并将用户脸部的方向向量归一化,其中,所述用户脸部的方向向量为(x 1 ,y 1 ,z 1 ),所述用户脸部的朝向向量为:
;
根据所述屏幕三维图形模型,计算屏幕的法向量,并根据所述法向量确定所述屏幕的朝向,其中,所述法向量为:
,
其中,(x 2 ,y 2 ,z 2 )为所述法向量的三个分量;
根据所述用户脸部的朝向向量与所述法向量,计算所述用户脸部的朝向向量与所述法向量的夹角θ,若∣θ∣<δ,则用户面部朝向与屏幕的朝向相匹配;若∣θ∣≥δ,则用户面部朝向与屏幕的朝向不匹配,其中,δ为用户脸部的朝向向量和法向量之间的容错范围。
可选的,根据用户眼睛的舒适度等级,调节所述屏幕亮度,以及调整所述屏幕的位置,包括:
当用户眼睛舒适度等级范围为0.1至0.3时,则调节屏幕的亮度和对比度,并通过气缸驱动所述屏幕抬高以及通过电机驱动所述屏幕倾斜,以使屏幕与用户视线成一个较小的夹角。
需要说明的是,该装置是与上述方法相对应的装置,上述方法实施例中的所有实现方式均适用于该实施例中,也能达到相同的技术效果。
本发明的实施例还提供一种计算设备,包括:处理器、存储有计算机程序的存储器,所述计算机程序被处理器运行时,执行如上所述的方法。上述方法实施例中的所有实现方式均适用于该实施例中,也能达到相同的技术效果。
本发明的实施例还提供一种计算机可读存储介质,存储指令,当所述指令在计算机上运行时,使得计算机执行如上所述的方法。上述方法实施例中的所有实现方式均适用于该实施例中,也能达到相同的技术效果。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
此外,需要指出的是,在本发明的装置和方法中,显然,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本发明的等效方案。并且,执行上述系列处理的步骤可以自然地按照说明的顺序按时间顺序执行,但是并不需要一定按照时间顺序执行,某些步骤可以并行或彼此独立地执行。对本领域的普通技术人员而言,能够理解本发明的方法和装置的全部或者任何步骤或者部件,可以在任何计算装置(包括处理器、存储介质等)或者计算装置的网络中,以硬件、固件、软件或者它们的组合加以实现,这是本领域普通技术人员在阅读了本发明的说明的情况下运用他们的基本编程技能就能实现的。
因此,本发明的目的还可以通过在任何计算装置上运行一个程序或者一组程序来实现。所述计算装置可以是公知的通用装置。因此,本发明的目的也可以仅仅通过提供包含实现所述方法或者装置的程序代码的程序产品来实现。也就是说,这样的程序产品也构成本发明,并且存储有这样的程序产品的存储介质也构成本发明。显然,所述存储介质可以是任何公知的存储介质或者将来所开发出来的任何存储介质。还需要指出的是,在本发明的装置和方法中,显然,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本发明的等效方案。并且,执行上述系列处理的步骤可以自然地按照说明的顺序按时间顺序执行,但是并不需要一定按照时间顺序执行。某些步骤可以并行或彼此独立地执行。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.一种计算机屏幕控制方法,其特征在于,所述方法包括:
获取用户在使用屏幕过程中的图像,提取所述图像中的至少一个人脸特征点,并计算所述人脸特征点的三维坐标;
获取屏幕上的至少四个定位点,并计算所述定位点的三维坐标,所述定位点用于对所述屏幕进行定位,以确定所述屏幕的朝向;
根据所述人脸特征点的三维坐标构建人脸三维图形模型,以及根据至少四个定位点的三维坐标和屏幕的参数信息构建屏幕三维图形模型;
根据所述人脸三维图形模型和屏幕三维图形模型,检测用户脸部朝向是否与屏幕的朝向匹配,若是,则对所述用户脸部的眼睛进行识别定位,并获取用户眼睛状态,根据所述用户眼睛状态检测用户眼睛的舒适度等级,若否,则调整屏幕的朝向,以使屏幕的朝向与用户脸部朝向匹配;
根据用户眼睛的舒适度等级,调节所述屏幕亮度,以及调整所述屏幕的位置。
2.根据权利要求1所述的计算机屏幕控制方法,其特征在于,获取用户在使用屏幕过程中的图像,提取所述图像中的至少一个人脸特征点,并计算所述人脸特征点的三维坐标,包括:
通过摄像头获取用户在使用屏幕过程中的图像;
对所述图像进行预处理,以得到预处理图像,使用人脸检测模型对预处理图像进行人脸检测,以确定人脸在预处理图像中的具***置,使用特征点检测模型对图像进行检测,检测出图像中双眼的位置坐标;
根据双眼的位置坐标对图像进行对齐,并提取人脸特征点;
将人脸特征点的二维坐标映射到三维空间中,并计算出人脸特征点对应的三维坐标。
3.根据权利要求2所述的计算机屏幕控制方法,其特征在于,获取屏幕上的至少四个定位点,并计算所述定位点的三维坐标,包括:
选择至少四个能够确定屏幕位置的定位点;
根据所述定位点,获取所述定位点在相机图像中的二维坐标,并根据相机的内外参数以及定位点在相机图像中的位置,计算定位点在相机坐标系下的三维坐标;
利用相机和屏幕之间的位姿关系,将定位点的相机坐标转换为世界坐标系下的三维坐标。
4.根据权利要求3所述的计算机屏幕控制方法,其特征在于,利用相机和屏幕之间的位姿关系,将定位点的相机坐标转换为世界坐标系下的三维坐标,包括:
获得定位点在相机坐标系下的坐标及对应的深度信息,以及获得屏幕在世界坐标系下的位置和旋转矩阵;
通过旋转矩阵变换将屏幕的坐标系与相机的坐标系进行匹配,以实现将屏幕坐标系下的点变换到相机坐标系下;
将定位点对应的相机坐标系下的坐标乘以相机外参矩阵,得到在世界坐标系下定位点的三维坐标。
5.根据权利要求4所述的计算机屏幕控制方法,其特征在于,根据所述人脸特征点的三维坐标构建人脸三维图形模型,以及根据至少四个定位点的三维坐标和屏幕的参数信息构建屏幕三维图形模型,包括:
根据所述人脸特征点的三维坐标,使用三角测量法生成人脸三维图形模型;
获取屏幕的参数信息,并通过反推计算出屏幕三维图形模型。
6.根据权利要求5所述的计算机屏幕控制方法,其特征在于,根据所述人脸三维图形模型和屏幕三维图形模型,检测用户脸部朝向是否与屏幕的朝向匹配,包括:
通过计算人脸特征点的三维坐标得到用户脸部的方向向量,并将用户脸部的方向向量归一化,其中,所述用户脸部的方向向量为(x 1 ,y 1 ,z 1 ),所述用户脸部的朝向向量为 :
;
根据所述屏幕三维图形模型,计算屏幕的法向量,并根据所述法向量确定所述屏幕的朝向,其中,所述法向量为:
,
其中,(x 2 ,y 2 ,z 2 )为所述法向量的三个分量;
根据所述用户脸部的朝向向量与所述法向量,计算所述用户脸部的朝向向量与所述法向量的夹角θ,若∣θ∣<δ,则用户面部朝向与屏幕的朝向相匹配;若∣θ∣≥δ,则用户面部朝向与屏幕的朝向不匹配,其中,δ为用户脸部的朝向向量和法向量之间的容错范围。
7.根据权利要求6所述的计算机屏幕控制方法,其特征在于,根据用户眼睛的舒适度等级,调节所述屏幕亮度,以及调整所述屏幕的位置,包括:
当用户眼睛舒适度等级范围为0.1至0.3时,则调节屏幕的亮度和对比度,并通过气缸驱动所述屏幕抬高以及通过电机驱动所述屏幕倾斜,以调节屏幕与用户视线之间的夹角。
8.一种计算机屏幕控制装置,其特征在于,包括:
获取模块,用于获取用户在使用屏幕过程中的图像,提取所述图像中的至少一个人脸特征点,并计算所述人脸特征点的三维坐标;获取屏幕上的至少四个定位点,并计算所述定位点的三维坐标,所述定位点用于对所述屏幕进行定位,以确定所述屏幕的朝向;
处理模块,用于根据所述人脸特征点的三维坐标构建人脸三维图形模型,以及根据至少四个定位点的三维坐标和屏幕的参数信息构建屏幕三维图形模型;根据所述人脸三维图形模型和屏幕三维图形模型,检测用户脸部朝向是否与屏幕的朝向匹配,若是,则对所述用户脸部的眼睛进行识别定位,并获取用户眼睛状态,根据所述用户眼睛状态检测用户眼睛的舒适度等级,若否,则调整屏幕的朝向,以使屏幕的朝向与用户脸部朝向匹配;根据用户眼睛的舒适度等级,调节所述屏幕亮度,以及调整所述屏幕的位置。
9.一种计算设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有程序,该程序被处理器执行时实现如权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310730773.4A CN116449968B (zh) | 2023-06-20 | 2023-06-20 | 一种计算机屏幕控制方法、装置及计算设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310730773.4A CN116449968B (zh) | 2023-06-20 | 2023-06-20 | 一种计算机屏幕控制方法、装置及计算设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116449968A true CN116449968A (zh) | 2023-07-18 |
CN116449968B CN116449968B (zh) | 2023-08-22 |
Family
ID=87124191
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310730773.4A Active CN116449968B (zh) | 2023-06-20 | 2023-06-20 | 一种计算机屏幕控制方法、装置及计算设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116449968B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102176755A (zh) * | 2010-12-24 | 2011-09-07 | 青岛海信数字多媒体技术国家重点实验室有限公司 | 基于眼动三维显示角度的控制方法及装置 |
CN201986038U (zh) * | 2011-02-12 | 2011-09-21 | 福建捷联电子有限公司 | 具有头像识别功能的自动旋转显示装置 |
CN109978960A (zh) * | 2019-04-01 | 2019-07-05 | 易思维(杭州)科技有限公司 | 基于摄影测量的高精度屏幕-相机位姿标定方法 |
CN111126142A (zh) * | 2019-11-19 | 2020-05-08 | 深圳市三宝创新智能有限公司 | 一种屏幕正面对准人脸的运动调整方法 |
JP2021009503A (ja) * | 2019-06-28 | 2021-01-28 | オムロン株式会社 | 個人データ取得システム、個人データ取得方法、画像処理装置用顔センシングパラメータの調整方法及びコンピュータプログラム |
CN112698724A (zh) * | 2020-12-30 | 2021-04-23 | 山东大学 | 一种基于摄像头眼动追踪的穿透式屏幕***的实现方法 |
WO2022099547A1 (zh) * | 2020-11-12 | 2022-05-19 | 深圳市沃特沃德股份有限公司 | 屏幕亮度的调整方法、装置及计算机设备 |
CN115171024A (zh) * | 2022-07-25 | 2022-10-11 | 天津工业大学 | 一种基于视频序列的面部多特征融合疲劳检测方法及*** |
CN115482574A (zh) * | 2022-09-29 | 2022-12-16 | 珠海视熙科技有限公司 | 基于深度学习的屏幕注视点估计方法、装置、介质及设备 |
-
2023
- 2023-06-20 CN CN202310730773.4A patent/CN116449968B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102176755A (zh) * | 2010-12-24 | 2011-09-07 | 青岛海信数字多媒体技术国家重点实验室有限公司 | 基于眼动三维显示角度的控制方法及装置 |
CN201986038U (zh) * | 2011-02-12 | 2011-09-21 | 福建捷联电子有限公司 | 具有头像识别功能的自动旋转显示装置 |
CN109978960A (zh) * | 2019-04-01 | 2019-07-05 | 易思维(杭州)科技有限公司 | 基于摄影测量的高精度屏幕-相机位姿标定方法 |
JP2021009503A (ja) * | 2019-06-28 | 2021-01-28 | オムロン株式会社 | 個人データ取得システム、個人データ取得方法、画像処理装置用顔センシングパラメータの調整方法及びコンピュータプログラム |
CN111126142A (zh) * | 2019-11-19 | 2020-05-08 | 深圳市三宝创新智能有限公司 | 一种屏幕正面对准人脸的运动调整方法 |
WO2022099547A1 (zh) * | 2020-11-12 | 2022-05-19 | 深圳市沃特沃德股份有限公司 | 屏幕亮度的调整方法、装置及计算机设备 |
CN112698724A (zh) * | 2020-12-30 | 2021-04-23 | 山东大学 | 一种基于摄像头眼动追踪的穿透式屏幕***的实现方法 |
CN115171024A (zh) * | 2022-07-25 | 2022-10-11 | 天津工业大学 | 一种基于视频序列的面部多特征融合疲劳检测方法及*** |
CN115482574A (zh) * | 2022-09-29 | 2022-12-16 | 珠海视熙科技有限公司 | 基于深度学习的屏幕注视点估计方法、装置、介质及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN116449968B (zh) | 2023-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018219180A1 (zh) | 确定人脸图像质量的方法和装置、电子设备和计算机存储介质 | |
EP3123283B1 (en) | Eye gaze tracking based upon adaptive homography mapping | |
WO2019137038A1 (zh) | 注视点确定方法、对比度调节方法及对比度调节装置、虚拟现实设备及存储介质 | |
US10782095B2 (en) | Automatic target point tracing method for electro-optical sighting system | |
Alnajar et al. | Calibration-free gaze estimation using human gaze patterns | |
TWI383325B (zh) | 臉部表情辨識 | |
WO2023071884A1 (zh) | 注视检测方法、电子设备的控制方法及相关设备 | |
EP3608755A1 (en) | Electronic apparatus operated by head movement and operation method thereof | |
US9049397B2 (en) | Image processing device and image processing method | |
WO2019061659A1 (zh) | 人脸图像眼镜去除方法、装置及存储介质 | |
CN109766007A (zh) | 一种显示设备的注视点补偿方法及补偿装置、显示设备 | |
WO2023071882A1 (zh) | 人眼注视检测方法、控制方法及相关设备 | |
US10866635B2 (en) | Systems and methods for capturing training data for a gaze estimation model | |
CN109977764A (zh) | 基于平面检测的活体识别方法、装置、终端及存储介质 | |
CN113128428B (zh) | 基于深度图预测的活体检测方法和相关设备 | |
CN113568595B (zh) | 基于ToF相机的显示器组件的控制方法、装置、设备和介质 | |
CN116449968B (zh) | 一种计算机屏幕控制方法、装置及计算设备 | |
KR102538685B1 (ko) | 다시점 정보를 이용하여 3d 정보를 복원하는 방법 및 이를 위한 장치 | |
CN108629333A (zh) | 一种低照度的人脸图像处理方法、装置、设备及可读介质 | |
CN112733838A (zh) | 基于深度学习的一次性输液针头组件定向检测方法及装置 | |
CN108109197B (zh) | 一种图像处理建模方法 | |
JP7040539B2 (ja) | 視線推定装置、視線推定方法、およびプログラム | |
CN111582120A (zh) | 用于捕捉眼球活动特征的方法、终端设备 | |
CN115291678B (zh) | 一种电子设备、仰视观看电子设备的识别方法及*** | |
CN117132869A (zh) | 视线偏差估算模型的训练、视线偏差值的校正方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |