CN112800884A - 一种基于化妆镜的智能辅助方法 - Google Patents
一种基于化妆镜的智能辅助方法 Download PDFInfo
- Publication number
- CN112800884A CN112800884A CN202110056906.5A CN202110056906A CN112800884A CN 112800884 A CN112800884 A CN 112800884A CN 202110056906 A CN202110056906 A CN 202110056906A CN 112800884 A CN112800884 A CN 112800884A
- Authority
- CN
- China
- Prior art keywords
- image
- user
- feature information
- facial
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000002537 cosmetic Substances 0.000 title claims abstract description 112
- 238000000034 method Methods 0.000 title claims abstract description 56
- 230000001815 facial effect Effects 0.000 claims abstract description 90
- 238000004458 analytical method Methods 0.000 claims abstract description 24
- 238000005286 illumination Methods 0.000 claims description 60
- 238000001914 filtration Methods 0.000 claims description 34
- 238000012545 processing Methods 0.000 claims description 17
- 238000012795 verification Methods 0.000 claims description 13
- 238000012549 training Methods 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 238000007499 fusion processing Methods 0.000 claims description 4
- 230000009286 beneficial effect Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000001747 exhibiting effect Effects 0.000 description 2
- 238000012952 Resampling Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47G—HOUSEHOLD OR TABLE EQUIPMENT
- A47G1/00—Mirrors; Picture frames or the like, e.g. provided with heating, lighting or ventilating means
- A47G1/02—Mirrors used as equipment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Probability & Statistics with Applications (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种基于化妆镜的智能辅助方法,包括:接收用户的选择指令,对所述选择指令进行指令分析,并获取分析结果;基于所述分析结果,确定化妆镜的工作模式;获取所述用户的面部图像,并提取所述面部图像的特征信息;基于所述化妆镜的工作模式以及所述用户的面部图像的特征信息,辅助推荐穿搭及化妆图像供所述用户选择;通过用户的选择指令确定化妆镜的工作模式,从而通过用户的面部图像的特征信息通过化妆镜为用户提供穿搭与化妆图像,不仅节省了用户的化妆和穿搭时间,而且提高了化妆镜的使用效率。
Description
技术领域
本发明涉及化妆镜技术领域,特别涉及一种基于化妆镜的智能辅助方法。
背景技术
目前,随着生活的发展,越来越多的人们开始关注自己的精神面貌,因此,为了改善面貌、提升气质,化妆镜成为家居生活的必需品;
然而,普通化妆镜已经不能满足人们的生活需求了,有的化妆镜也只是具有普通的背光灯源,功能单一,没有可以为用户准确提供穿搭与妆容推荐的功能,使用者在化妆穿搭上会浪费很多时间,且对化妆镜使用效率低下,因此,本发明提供了一种基于化妆镜的智能辅助方法。
发明内容
本发明提供一种基于化妆镜的智能辅助方法,用以通过用户选择化妆镜的功能模式以及面部的特征信息,准确为用户提供穿搭与化妆图像。
一种基于化妆镜的智能辅助方法,包括:
接收用户的选择指令,对所述选择指令进行指令分析,并获取分析结果;
基于所述分析结果,确定化妆镜的工作模式;
获取所述用户的面部图像,并提取所述面部图像的特征信息;
基于所述化妆镜的工作模式以及所述用户的面部图像的特征信息,辅助推荐穿搭及化妆图像供所述用户选择。
优选的,一种基于化妆镜的智能辅助方法,获取所述用户的面部图像后,且提取所述面部图像的特征信息之前,还包括:
基于所述面部图像确定当前所述化妆镜面反射的光照强度,并将所述光照强度存入数据库中;
将所述光照强度带入回归方程,获得综合光照强度值;
将所述综合光照强度值,与所述数据库中预存的光照阈值进行比较;
当所述光照强度小于所述预设光照阈值时,控制所述化妆镜面的光照强度增加,直至所述化妆镜面的光照强度符合所述预设光照阈值;
当所述光照强度大于所述预设光照阈值时,控制所述化妆镜面的光照强度减少,直至所述化妆镜面的光照强度符合所述预设光照阈值。
优选的,一种基于化妆镜的智能辅助方法,对所述选择指令进行指令分析的具体工作过程,包括:
定位所述选择指令的特征数据,并基于选择指令类型对所述特征数据进行分类;
基于所述特征数据的分类结果建立数据链表,并将所述选择指令存储于数据链表节点中;
获取所述选择指令位于所述数据链表节点中的节点坐标;
将所述节点坐标所对应的字节后缀与预设后缀字典链表进行匹配,并获取所述字节后缀在预设后缀字典链表中的最大重复后缀;
将所述最大重复后缀作为所述选择指令的后缀,基于所述选择指令的后缀确定所述选择指令的前缀;
基于所述选择指令的后缀以及前缀确定所述选择指令的关键语句;
将所述选择指令的关键语句进行二进制处理,获取最终分析结果。
优选的,一种基于化妆镜的智能辅助方法,基于所述分析结果,确定化妆镜的工作模式的具体工作过程,包括:
获取所述分析结果所对应的目标数据以及确定所述化妆镜的工作模式所对应的模式数据集;
获取所述模式数据集中所有数据的模式数据关键字;
基于所述数据关键字以及特定编号规则对所述模式数据集的数据进行编号,获取模式数据序列;
基于所述目标数据,获取目标数据关键字;
基于所述模式数据序列,获取所述目标数据关键字与所述模式数据序列之间的对应关系;
根据所述对应关系,确定所述化妆镜的工作模式。
优选的,一种基于化妆镜的智能辅助方法,基于所述模式数据序列,获取所述目标数据关键字与所述模式数据序列之间的对应关系,包括:
获取所述目标数据关键字的目标字段信息和所述目标数据所对应的模式数据的关键字的模式字段信息,其中,所述目标字段信息与所述模式字段信息存在映射关系;
基于所述映射关系以及预设的匹配规则,对所述目标数据以及所述模式数据进行匹配,若匹配成功,则将所述目标数据与所述模式数据进行绑定,获取对应关系。
优选的,一种基于化妆镜的智能辅助方法,提取所述面部图像的特征信息的工作过程,包括:
获取用户的面部图像,并构建训练模型;
其中,所述训练模型中包含深度卷积神经网络;
将所述用户的面部图像输入所述训练模型,对获取的用户面部图像进行检测,判断所述用户的面部图像是否为完整的面部图像;
若所述用户的面部图像为不完整图像,则重新获取用户的面部图像;
否则,根据预设的椭圆区域对所述用户的面部图像进行分割,得到所述用户的面部图像的N个子图像;
其中,N表示所述子图像的个数;
提取所述用户的面部图像的N个子图像中的子面部特征信息,得到所述用户的面部图像的子面部特征信息集合;
获取预设目标面部图像的参考子面部特征信息集合,并从所述预设目标面部图像的参考子面部特征信息集合中提取与所述用户的面部图像的子面部特征信息集合相对应的参考子面部特征信息,作为参考子面部特征信息集合;
将所述参考子面部特征信息集合中的参考子面部特征信息与所述子面部特征信息集合中的子面部特征信息进行一一验证;
若所述参考子面部特征信息集合中的参考子面部特征信息与所述子面部特征信息集合中对应的子面部特征信息一一对应,将所述子面部特征信息集合中的子面部特征信息进行融合处理,得到所述用户的面部图像的面部特征信息;
否则,重新对所述用户的面部图像进行分割,并提取分割后子图像中的子面部特征信息,直至所述参考子面部特征信息集合中的参考子面部特征信息与所述子面部特征信息集合中对应的子面部特征信息一一对应。
优选的,一种基于化妆镜的智能辅助方法,所述化妆镜的工作模式包括:夜间工作模式以及日间工作模式;
其中,所述夜间工作模式对应的第一工作参数包括:基于所述化妆镜显示第二天的气候及温度、根据所述气候及所述温度推送的参考衣服穿搭和参考化妆图像;
所述日间工作模式对应的第二工作参数包括:基于所述化妆镜显示当天的气候及温度、根据所述气候及所述温度推送的衣服穿搭和化妆图像。
优选的,一种基于化妆镜的智能辅助方法,基于所述化妆镜的工作模式以及所述用户的面部图像的特征信息为所述用户提供穿搭及化妆图像后,还包括:
获取用户的面部图像,并将所述用户的面部图像进行滤波处理,将滤波处理好的所述面部图像与化妆图像进行匹配,并计算匹配度,同时,将计算好的匹配度进行校验确定所述化妆镜的工作模式的准确程度,具体工作过程包括:
根据如下滤波函数公式,对所述面部图像进行高斯滤波处理,获取标准面部图像;
其中,x表示所述面部图像的像素值;σ1表示在滤波过程中所述面部图像的高频增益;σ2表示在高斯滤波过程中所述面部图像的低频增益;k表示所述面部图像的像素反射分量;f表示进行高斯滤波过程中的滤波频率,μ表示滤波系数,其取值范围为(1.2*10-2,0.8*102);t表示在高斯滤波过程中所需要的滤波时间;m表示高斯方差;
将所述标准面部图像以及所述化妆图像进行灰度化,并基于灰度化处理后的所述标准面部图像以及所述化妆图像进行匹配,计算所述标准面部图像与所述化妆图像的匹配度;
其中,d表示所述标准面部图像与所述化妆图像的匹配度;δ表示匹配因子,且取值范围为(0.2*10-3,0.6*10-2);i表示所述标准面部图像的像素点个数或者所述化妆图像的像素点个数,且两者的像素点个数相等,xi表示所述标准面部图像中第i个像素点的像素值;yi表示所述标准面部图像在第i个像素点的像素值;h1表示所述标准面部图像的梯度值;h2表示所述化妆图像的梯度值;g1表示所述标准面部图像的灰度值;g2表示所述化妆图像的灰度值;ζ表示匹配因子,其取值范围为(1.2*10-6,0.6*10-6);
对所述标准面部图像与所述化妆图像的匹配度进行校验,并按照预设校验标准确定所述化妆镜的工作模式的准确程度;
若所述匹配度为10%到40%,则所述匹配度不符合所述校验规则,所述化妆镜的工作模式的准确程度为低,同时,重新为所述用户提供化妆图像;
若所述匹配度为40%到70%,则所述匹配度符合所述校验规则,所述化妆镜的工作模式的准确程度为中,同时,所述用户根据所述化妆图像进行化妆,或者重新提供化妆图像;
若所述匹配度为70%到99%,则所述匹配度符合所述校验规则,且所述化妆镜的工作模式的准确程度为高,且所述化妆图像为最终使用化妆图像。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例中一种基于化妆镜的智能辅助方法的流程图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
实施例1:
本发明提供了一种基于化妆镜的智能辅助方法,如图1所示,包括:
步骤1:接收用户的选择指令,对所述选择指令进行指令分析,并获取分析结果;
步骤2:基于所述分析结果,确定化妆镜的工作模式;
步骤3:获取所述用户的面部图像,并提取所述面部图像的特征信息;
步骤4:基于所述化妆镜的工作模式以及所述用户的面部图像的特征信息,辅助推荐穿搭及化妆图像供所述用户选择。
该实施例中,化妆镜的工作模式包括:夜间工作模式以及日间工作模式;
其中,夜间工作模式对应的第一工作参数包括:基于化妆镜显示第二天的气候及温度、根据气候及温度推送的参考衣服穿搭和参考化妆图像;
日间工作模式对应的第二工作参数包括:基于化妆镜显示当天的气候及温度、根据气候及所述温度推送的衣服穿搭和化妆图像。
该实施例中,特征信息可以是用户的面部如眼睛大小,眼睛之间的距离,额头宽度等。
上述技术方案的有益效果是:
通过用户的选择指令确定化妆镜的工作模式,从而通过用户的面部图像的特征信息通过化妆镜为用户提供穿搭与化妆图像,不仅节省了用户的化妆和穿搭时间,而且提高了化妆镜的使用效率。
实施例2:
在实施例1的基础上,本发明提供了一种基于化妆镜的智能辅助方法,获取所述用户的面部图像后,且提取所述面部图像的特征信息之前,还包括:
基于所述面部图像确定当前所述化妆镜面反射的光照强度,并将所述光照强度存入数据库中;
将所述光照强度带入回归方程,获得综合光照强度值;
将所述综合光照强度值,与所述数据库中预存的光照阈值进行比较;
当所述光照强度小于所述预设光照阈值时,控制所述化妆镜面的光照强度增加,直至所述化妆镜面的光照强度符合所述预设光照阈值;
当所述光照强度大于所述预设光照阈值时,控制所述化妆镜面的光照强度减少,直至所述化妆镜面的光照强度符合所述预设光照阈值
该实施例中,回归方程可以是线性回归方程,利用回归分析方法,确定面部信息与光照强度的关系,从而获取综合光照强度值。
该实施例中,综合光照强度值是基于外界光照强度与镜面反射的光照强度以及面部凹凸处受光强度确定的,其中,外界光照强度可以是太阳光照或者室内灯光强度,也可以是太阳光照与室内灯光强度的结合。
该实施例中,光照阈值可以是通过机器学习获取的使用者最佳的光照强度。
上述技术方案的有益效果是:
通过当前所述化妆镜面反射的光照强度,有利于准确确定综合光照强度值,通过将综合光照强度值调节至光照阈值,有利于用户在使用化妆镜中保持恒定的光照强度,从而有利于给用户带来好的化妆体验。
实施例3:
在实施例1的基础上,本发明提供了一种基于化妆镜的智能辅助方法,对所述选择指令进行指令分析的具体工作过程,包括:
定位所述选择指令的特征数据,并基于选择指令类型对所述特征数据进行分类;
基于所述特征数据的分类结果建立数据链表,并将所述选择指令存储于数据链表节点中;
获取所述选择指令位于所述数据链表节点中的节点坐标;
将所述节点坐标所对应的字节后缀与预设后缀字典链表进行匹配,并获取所述字节后缀在预设后缀字典链表中的最大重复后缀;
将所述最大重复后缀作为所述选择指令的后缀,基于所述选择指令的后缀确定所述选择指令的前缀;
基于所述选择指令的后缀以及前缀确定所述选择指令的关键语句;
将所述选择指令的关键语句进行二进制处理,获取所述化妆镜能读取的最终分析结果。
该实施例中,选择指令的特征数据中包括:选择指令的指令操作码字段数据与地址码字段数据。
该实施例中,指令类型包括:传送指令、定点算术运算指令、控制转移类型等。
该实施例中,数据链表可以是物理存储结构上非连续、非顺序的存储结构,特征数据存储的逻辑顺序是通过链表中的引用链接次序实现的。
该实施例中,获取后缀字典链表中的最大重复后缀,是为了确定选择指令的后缀,使得选择指令关键语句更具有唯一性。
该实施例中,对关键语句进行二进制处理,是为了将关键语句进行数字化以及统一化,从而更有利于化妆镜精确读取。
上述技术方案的有益效果是:
通过定位选择指令的特征数据,并进行分类,从而准确建立数据链表,通过数据链表获取选择指令的前缀以及后缀,从而锁定选定指令的关键语句,对关键语句进行二进制处理,使得化妆镜读取更准确的确定化妆镜的功能,本方法实现了精确的指令分析,从而提高化妆镜工作效率。
实施例4:
在实施例1的基础上,本发明提供了一种基于化妆镜的智能辅助方法,基于所述分析结果,确定化妆镜的工作模式的具体工作过程,包括:
获取所述分析结果所对应的目标数据以及确定所述化妆镜的工作模式所对应的模式数据集;
获取所述模式数据集中所有数据的模式数据关键字;
基于所述数据关键字以及特定编号规则对所述模式数据集的数据进行编号,获取模式数据序列;
基于所述目标数据,获取目标数据关键字;
基于所述模式数据序列,获取所述目标数据关键字与所述模式数据序列之间的对应关系;
根据所述对应关系,确定所述化妆镜的工作模式。
该实施例中,模式数据集例如可以是气候,气温、穿搭衣服的颜色,温暖度以及化妆妆容的口红色号等;其中,气候可以是,当气候为晴时,数据定义为00;当气候为阴时,数据定义为01;当气候为雨时,数据定义为10;当气候为雪时,数据定义为11.
该实施例中,模式数据的关键字可以是,只针对气候的数据关键字,获取只针对穿搭的数据关键字,也可以是只针对妆容的数据关键字。
该实施例中,特定编号规则可以是根据UTF8编码规则确定。
上述技术方案的有益效果是:
通过对模式数据集中获取模式数据关键字,从而有利于对模式数据集中的模式数据进行编号,从而根据编号的模式数据序列,从而有利于通过目标数据的关键字建立与模式数据序列之间的对应关系,从而可以根据对应关系确定化妆镜的工作模式,从而提高了化妆镜工作的准确度。
实施例5:
在实施例4的基础上,本发明提供了一种基于化妆镜的智能辅助方法,
基于所述模式数据序列,获取所述目标数据关键字与所述模式数据序列之间的对应关系,包括:
所述目标数据关键字的目标字段信息和所述目标数据所对应的模式数据的关键字的模式字段信息,其中,所述目标字段信息与所述模式字段信息存在映射关系;
基于所述映射关系以及预设的匹配规则,对所述目标数据以及所述模式数据进行匹配,若匹配成功,则将所述目标数据与所述模式数据进行绑定,获取对应关系。
该实施例中,预设匹配规则可以是基于正则表达式的匹配规则。
该实施例中,目标数据与模式数据进行绑定是为了建立选择指令与化妆镜的工作模式之间的连接过程,且当数据发生更改时,则绑定到的数据元素会自动反应更改。
上述技术方案的有益效果是:
通过预设匹配规则对目标数据与模式数据进行匹配,从而有利于实现目标数据与模式数据之间的绑定,进而准确获取对应关系,提高了数据匹配准确性。
实施例6:
在实施例1的基础上,本发明提供了一种基于化妆镜的智能辅助方法,提取所述面部图像的特征信息的工作过程,包括:
获取用户的面部图像,并构建训练模型;
其中,所述训练模型中包含深度卷积神经网络;
将所述用户的面部图像输入所述训练模型,对获取的用户面部图像进行检测,判断所述用户的面部图像是否为完整的面部图像;
若所述用户的面部图像为不完整图像,则重新获取用户的面部图像;
否则,根据预设的椭圆区域对所述用户的面部图像进行分割,得到所述用户的面部图像的N个子图像;
其中,N表示所述子图像的个数;
提取所述用户的面部图像的N个子图像中的子面部特征信息,得到所述用户的面部图像的子面部特征信息集合;
获取预设目标面部图像的参考子面部特征信息集合,并从所述预设目标面部图像的参考子面部特征信息集合中提取与所述用户的面部图像的子面部特征信息集合相对应的参考子面部特征信息,作为参考子面部特征信息集合;
将所述参考子面部特征信息集合中的参考子面部特征信息与所述子面部特征信息集合中的子面部特征信息进行一一验证;
若所述参考子面部特征信息集合中的参考子面部特征信息与所述子面部特征信息集合中对应的子面部特征信息一一对应,将所述子面部特征信息集合中的子面部特征信息进行融合处理,得到所述用户的面部图像的面部特征信息;
否则,重新对所述用户的面部图像进行分割,并提取分割后子图像中的子面部特征信息,直至所述参考子面部特征信息集合中的参考子面部特征信息与所述子面部特征信息集合中对应的子面部特征信息一一对应。
该实施例中,训练模型可以是根据适合面部图像的参数以及卷积神经网络构成的。
该实施例中,预设的椭圆区域是为了与用户的面部图像进行贴合,而椭圆区域是根据根据用户面部大小所确定的。
该实施例中,子面部特征信息可以是具体到五官中的每一个,例如是眼睛的特征信息、鼻子的特征信息、嘴巴的特征信息以及脸部的特征信息等。
该实施例中,预设目标面部图像是根据用户的面部特征设定的,且预设目标面部图像是可以改变的,通过采集不同面部数据,并精确计算不同面部数据的妆容最佳数据并进行存储,当有用户输入面部图像时,基于大数据可以获取用户的预设目标面部图像。
该实施例中,融合处理可以是将子面部特征信息通过高光谱影像与高空间分辨率的单波段影像重采样方法进行融合。
上述技术方案的有益效果是:
通过对用户的面部图像进行训练并进行检测,是为了准确获取用户完整的面部图像,基于预设的椭圆区域是为了迎合用户的脸部轮廓,从而更有利于对面部图像的分割,通过获取子面部特征集合,并于参考子面部特征集合进行一一验证,并将一一对应的子面部特征集合进行融合处理,从而有准确获取用户的面部图像信息。
实施例7:
在实施例1的基础上,本发明提供了一种基于化妆镜的化妆智能辅助方法,基于所述化妆镜的工作模式以及所述用户的面部图像的特征信息为所述用户提供穿搭及化妆图像后,还包括:
获取用户的面部图像,并将所述用户的面部图像进行滤波处理,将高斯滤波处理好的所述面部图像与所述化妆图像进行匹配,并计算匹配度,同时,将计算好的匹配度进行校验确定所述化妆镜的工作模式的准确程度,具体工作过程包括:
根据如下滤波函数公式,对所述面部图像进行高斯滤波处理,获取标准面部图像;
其中,x表示所述面部图像的像素值;σ1表示在滤波过程中所述面部图像的高频增益;σ2表示在高斯滤波过程中所述面部图像的低频增益;k表示所述面部图像的像素反射分量;f表示进行高斯滤波过程中的滤波频率,μ表示滤波系数,其取值范围为(1.2*10-2,0.8*10-2);t表示在高斯滤波过程中所需要的滤波时间;m表示高斯方差;
将所述标准面部图像以及所述化妆图像进行灰度化,并基于灰度化处理后的所述标准面部图像以及所述化妆图像进行匹配,计算所述标准面部图像与所述化妆图像的匹配度;
其中,d表示所述标准面部图像与所述化妆图像的匹配度;δ表示匹配因子,且取值范围为(0.2*10-3,0.6*10-2);i表示所述标准面部图像的像素点个数或者所述化妆图像的像素点个数,且两者的像素点个数相等,xi表示所述标准面部图像中第i个像素点的像素值;yi表示所述标准面部图像在第i个像素点的像素值;h1表示所述标准面部图像的梯度值;h2表示所述化妆图像的梯度值;g1表示所述标准面部图像的灰度值;g2表示所述化妆图像的灰度值;ζ表示匹配因子,其取值范围为(1.2*10-6,0.6*10-6);
对所述标准面部图像与所述化妆图像的匹配度进行校验,并按照预设校验标准确定所述化妆镜的工作模式的准确程度;
若所述匹配度为10%到40%,则所述匹配度不符合所述校验规则,所述化妆镜的工作模式的准确程度为低,同时,重新为所述用户提供化妆图像;
若所述匹配度为40%到70%,则所述匹配度符合所述校验规则,所述化妆镜的工作模式的准确程度为中等,同时,所述用户根据所述化妆图像进行化妆,或者重新提供化妆图像;
若所述匹配度为70%到99%,则所述匹配度符合所述校验规则,且所述化妆镜的工作模式的准确程度为高等,且所述化妆图像为最终使用化妆图像。
该实施例中,标准面部图像可以是经过高斯滤波后,面部图像没有任何干扰因素存在的图像称为标准面部图像,其中,干扰因素可以是噪声等。
该实施例中,像素反射分量可以是光源直接经用户的面部表面反射入眼睛的光线程度值。
该实施例中,高斯方差可以是用户面部图像的像素之间的统计量,当高斯方差的值为正时,统计量呈现正相关,当高斯方差的值为负时,统计量呈现负相关。
该实施例中,校验规则可以是判断匹配度是否达到40%,当达到40%即为合格。
上述技术方案的有益效果是:
通过获取用户的面部图像,并进行滤波处理,从而有利于准确获取标准面部图像与化妆图像的匹配度,进而可以通过匹配度在预设匹配规则中进行判断,有利于获取化妆镜的工作模式的准确程度,从而为用户提供最合理的面部妆容推荐,提高使用的有效性。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (8)
1.一种基于化妆镜的智能辅助方法,其特征在于,包括:
接收用户的选择指令,对所述选择指令进行指令分析,并获取分析结果;
基于所述分析结果,确定化妆镜的工作模式;
获取所述用户的面部图像,并提取所述面部图像的特征信息;
基于所述化妆镜的工作模式以及所述用户的面部图像的特征信息,辅助推荐穿搭及化妆图像供所述用户选择。
2.根据权利要求1所述的一种基于化妆镜的智能辅助方法,其特征在于,获取所述用户的面部图像后,且提取所述面部图像的特征信息之前,还包括:
基于所述面部图像确定当前所述化妆镜面反射的光照强度,并将所述光照强度存入数据库中;
将所述光照强度带入回归方程,获得综合光照强度值;
将所述综合光照强度值,与所述数据库中预存的光照阈值进行比较;
当所述光照强度小于所述预设光照阈值时,控制所述化妆镜面的光照强度增加,直至所述化妆镜面的光照强度符合所述预设光照阈值;
当所述光照强度大于所述预设光照阈值时,控制所述化妆镜面的光照强度减少,直至所述化妆镜面的光照强度符合所述预设光照阈值。
3.根据权利要求1所述的一种基于化妆镜的智能辅助方法,其特征在于,对所述选择指令进行指令分析的具体工作过程,包括:
定位所述选择指令的特征数据,并基于选择指令类型对所述特征数据进行分类;
基于所述特征数据的分类结果建立数据链表,并将所述选择指令存储于数据链表节点中;
获取所述选择指令位于所述数据链表节点中的节点坐标;
将所述节点坐标所对应的字节后缀与预设后缀字典链表进行匹配,并获取所述字节后缀在预设后缀字典链表中的最大重复后缀;
将所述最大重复后缀作为所述选择指令的后缀,基于所述选择指令的后缀确定所述选择指令的前缀;
基于所述选择指令的后缀以及前缀确定所述选择指令的关键语句;
将所述选择指令的关键语句进行二进制处理,获取最终分析结果。
4.根据权利要求1所述的一种基于化妆镜的智能辅助方法,其特征在于,基于所述分析结果,确定化妆镜的工作模式的具体工作过程,包括:
获取所述分析结果所对应的目标数据以及确定所述化妆镜的工作模式所对应的模式数据集;
获取所述模式数据集中所有数据的模式数据关键字;
基于所述数据关键字以及特定编号规则对所述模式数据集的数据进行编号,获取模式数据序列;
基于所述目标数据,获取目标数据关键字;
基于所述模式数据序列,获取所述目标数据关键字与所述模式数据序列之间的对应关系;
根据所述对应关系,确定所述化妆镜的工作模式。
5.根据权利要求4所述的一种基于化妆镜的智能辅助方法,其特征在于,
基于所述模式数据序列,获取所述目标数据关键字与所述模式数据序列之间的对应关系,包括:
获取所述目标数据关键字的目标字段信息和所述目标数据所对应的模式数据的关键字的模式字段信息,其中,所述目标字段信息与所述模式字段信息存在映射关系;
基于所述映射关系以及预设的匹配规则,对所述目标数据以及所述模式数据进行匹配,若匹配成功,则将所述目标数据与所述模式数据进行绑定,获取对应关系。
6.根据权利要求1所述的一种基于化妆镜的智能辅助方法,其特征在于,提取所述面部图像的特征信息的工作过程,包括:
获取用户的面部图像,并构建训练模型;
其中,所述训练模型中包含深度卷积神经网络;
将所述用户的面部图像输入所述训练模型,对获取的用户面部图像进行检测,判断所述用户的面部图像是否为完整的面部图像;
若所述用户的面部图像为不完整图像,则重新获取用户的面部图像;
否则,根据预设的椭圆区域对所述用户的面部图像进行分割,得到所述用户的面部图像的N个子图像;
其中,N表示所述子图像的个数;
提取所述用户的面部图像的N个子图像中的子面部特征信息,得到所述用户的面部图像的子面部特征信息集合;
获取预设目标面部图像的参考子面部特征信息集合,并从所述预设目标面部图像的参考子面部特征信息集合中提取与所述用户的面部图像的子面部特征信息集合相对应的参考子面部特征信息,作为参考子面部特征信息集合;
将所述参考子面部特征信息集合中的参考子面部特征信息与所述子面部特征信息集合中的子面部特征信息进行一一验证;
若所述参考子面部特征信息集合中的参考子面部特征信息与所述子面部特征信息集合中对应的子面部特征信息一一对应,将所述子面部特征信息集合中的子面部特征信息进行融合处理,得到所述用户的面部图像的面部特征信息;
否则,重新对所述用户的面部图像进行分割,并提取分割后子图像中的子面部特征信息,直至所述参考子面部特征信息集合中的参考子面部特征信息与所述子面部特征信息集合中对应的子面部特征信息一一对应。
7.根据权利要求1所述的一种基于化妆镜的化妆智能辅助方法,其特征在于,
所述化妆镜的工作模式包括:夜间工作模式以及日间工作模式;
其中,所述夜间工作模式对应的第一工作参数包括:基于所述化妆镜显示第二天的气候及温度、根据所述气候及所述温度推送的参考衣服穿搭和参考化妆图像;
所述日间工作模式对应的第二工作参数包括:基于所述化妆镜显示当天的气候及温度、根据所述气候及所述温度推送的衣服穿搭和化妆图像。
8.根据权利要求1所述的一种基于化妆镜的智能辅助方法,其特征在于,基于所述化妆镜的工作模式以及所述用户的面部图像的特征信息为所述用户提供穿搭及化妆图像后,还包括:
获取用户的面部图像,并将所述用户的面部图像进行滤波处理,将滤波处理好的所述面部图像与化妆图像进行匹配,并计算匹配度,同时,将计算好的匹配度进行校验确定所述化妆镜的工作模式的准确程度,具体工作过程包括:
根据如下滤波函数公式,对所述面部图像进行高斯滤波处理,获取标准面部图像;
其中,x表示所述面部图像的像素值;σ1表示在滤波过程中所述面部图像的高频增益;σ2表示在高斯滤波过程中所述面部图像的低频增益;k表示所述面部图像的像素反射分量;f表示进行高斯滤波过程中的滤波频率,μ表示滤波系数,其取值范围为(1.2*10-2,0.8*10-2);t表示在高斯滤波过程中所需要的滤波时间;m表示高斯方差;
将所述标准面部图像以及所述化妆图像进行灰度化,并基于灰度化处理后的所述标准面部图像以及所述化妆图像进行匹配,计算所述标准面部图像与所述化妆图像的匹配度;
其中,d表示所述标准面部图像与所述化妆图像的匹配度;δ表示匹配因子,且取值范围为(0.2*10-3,0.6*10-2);i表示所述标准面部图像的像素点个数或者所述化妆图像的像素点个数,且两者的像素点个数相等,xi表示所述标准面部图像中第i个像素点的像素值;yi表示所述标准面部图像中第i个像素点的像素值;h1表示所述标准面部图像的梯度值;h2表示所述化妆图像的梯度值;g1表示所述标准面部图像的灰度值;g2表示所述化妆图像的灰度值;ζ表示匹配因子,其取值范围为(1.2*10--6,0.6*10-6);
对所述标准面部图像与所述化妆图像的匹配度进行校验,并按照预设校验标准确定所述化妆镜的工作模式的准确程度;
若所述匹配度为10%到40%,则所述匹配度不符合所述校验规则,所述化妆镜的工作模式的准确程度为低,同时,重新为所述用户提供化妆图像;
若所述匹配度为40%到70%,则所述匹配度符合所述校验规则,所述化妆镜的工作模式的准确程度为中,同时,所述用户根据所述化妆图像进行化妆,或者重新提供化妆图像;
若所述匹配度为70%到99%,则所述匹配度符合所述校验规则,且所述化妆镜的工作模式的准确程度为高,且所述化妆图像为最终使用化妆图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110056906.5A CN112800884B (zh) | 2021-01-15 | 2021-01-15 | 一种基于化妆镜的智能辅助方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110056906.5A CN112800884B (zh) | 2021-01-15 | 2021-01-15 | 一种基于化妆镜的智能辅助方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112800884A true CN112800884A (zh) | 2021-05-14 |
CN112800884B CN112800884B (zh) | 2024-04-30 |
Family
ID=75809795
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110056906.5A Active CN112800884B (zh) | 2021-01-15 | 2021-01-15 | 一种基于化妆镜的智能辅助方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112800884B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114340079A (zh) * | 2021-12-29 | 2022-04-12 | 苏州鑫凯威科创发展有限公司 | 一种带灯化妆镜及其自适应投光方法 |
CN117596741A (zh) * | 2023-12-08 | 2024-02-23 | 东莞莱姆森科技建材有限公司 | 一种自动调整光线的智能镜控制方法及*** |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106108523A (zh) * | 2016-08-22 | 2016-11-16 | 陈云 | 一种便携式智能化妆镜、化妆辅助***及方法 |
CN108154121A (zh) * | 2017-12-25 | 2018-06-12 | 深圳市美丽控电子商务有限公司 | 基于智能镜的化妆辅助方法、智能镜及存储介质 |
CN109671142A (zh) * | 2018-11-23 | 2019-04-23 | 南京图玩智能科技有限公司 | 一种智能美妆方法及智能美妆镜 |
CN109784281A (zh) * | 2019-01-18 | 2019-05-21 | 深圳壹账通智能科技有限公司 | 基于人脸特征的产品推荐方法、装置及计算机设备 |
CN111353097A (zh) * | 2020-02-19 | 2020-06-30 | 珠海格力电器股份有限公司 | 智能化妆镜及其控制方法、***、电子设备、存储介质 |
-
2021
- 2021-01-15 CN CN202110056906.5A patent/CN112800884B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106108523A (zh) * | 2016-08-22 | 2016-11-16 | 陈云 | 一种便携式智能化妆镜、化妆辅助***及方法 |
CN108154121A (zh) * | 2017-12-25 | 2018-06-12 | 深圳市美丽控电子商务有限公司 | 基于智能镜的化妆辅助方法、智能镜及存储介质 |
CN109671142A (zh) * | 2018-11-23 | 2019-04-23 | 南京图玩智能科技有限公司 | 一种智能美妆方法及智能美妆镜 |
CN109784281A (zh) * | 2019-01-18 | 2019-05-21 | 深圳壹账通智能科技有限公司 | 基于人脸特征的产品推荐方法、装置及计算机设备 |
CN111353097A (zh) * | 2020-02-19 | 2020-06-30 | 珠海格力电器股份有限公司 | 智能化妆镜及其控制方法、***、电子设备、存储介质 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114340079A (zh) * | 2021-12-29 | 2022-04-12 | 苏州鑫凯威科创发展有限公司 | 一种带灯化妆镜及其自适应投光方法 |
CN114340079B (zh) * | 2021-12-29 | 2024-02-02 | 苏州鑫凯威科创发展有限公司 | 一种带灯化妆镜及其自适应投光方法 |
CN117596741A (zh) * | 2023-12-08 | 2024-02-23 | 东莞莱姆森科技建材有限公司 | 一种自动调整光线的智能镜控制方法及*** |
CN117596741B (zh) * | 2023-12-08 | 2024-05-14 | 东莞莱姆森科技建材有限公司 | 一种自动调整光线的智能镜控制方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN112800884B (zh) | 2024-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | Illumination invariant face recognition using near-infrared images | |
CN112800884A (zh) | 一种基于化妆镜的智能辅助方法 | |
CN111325203A (zh) | 一种基于图像校正的美式车牌识别方法及*** | |
CN109101938B (zh) | 一种基于卷积神经网络的多标签年龄估计方法 | |
US20110141258A1 (en) | Emotion recognition method and system thereof | |
US20060280343A1 (en) | Bilinear illumination model for robust face recognition | |
Berretti et al. | 3d mesh decomposition using reeb graphs | |
CN111401145B (zh) | 一种基于深度学习与ds证据理论的可见光虹膜识别方法 | |
CN106980852A (zh) | 基于角点检测与匹配的药品识别***及其识别方法 | |
CN110263768A (zh) | 一种基于深度残差网络的人脸识别方法 | |
CN108573219B (zh) | 一种基于深度卷积神经网络的眼睑关键点精确定位方法 | |
CN113947807B (zh) | 一种基于无监督的眼底影像异常识别方法及*** | |
CN109815923B (zh) | 基于lbp特征与深度学习的金针菇菇头分选识别方法 | |
Martinikorena et al. | Fast and robust ellipse detection algorithm for head-mounted eye tracking systems | |
CN114445879A (zh) | 一种高精度人脸识别方法及人脸识别设备 | |
WO2020114135A1 (zh) | 特征识别的方法及装置 | |
CN110929570B (zh) | 虹膜快速定位装置及其定位方法 | |
CN113283466A (zh) | 一种仪表读数识别方法及装置、可读存储介质 | |
CN111738062A (zh) | 一种基于嵌入式平台的自动再识别方法及*** | |
CN206363347U (zh) | 基于角点检测与匹配的药品识别*** | |
CN112949385B (zh) | 一种基于光视觉的水面目标检测与识别方法 | |
CN115797987A (zh) | 一种基于联合损失和卷积神经网络的指静脉识别方法 | |
CN114627500A (zh) | 一种基于卷积神经网络的跨模态行人重识别方法 | |
CN114550247A (zh) | 表情强度变化的人脸表情识别方法、***及存储介质 | |
CN113763498A (zh) | 一种面向工业制造的肖像简笔画区域自适应颜色匹配方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |