CN109583261A - 身体信息分析装置及其辅助比对眉型方法 - Google Patents
身体信息分析装置及其辅助比对眉型方法 Download PDFInfo
- Publication number
- CN109583261A CN109583261A CN201710896760.9A CN201710896760A CN109583261A CN 109583261 A CN109583261 A CN 109583261A CN 201710896760 A CN201710896760 A CN 201710896760A CN 109583261 A CN109583261 A CN 109583261A
- Authority
- CN
- China
- Prior art keywords
- eyebrow
- image
- mirror
- characteristic point
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 210000004709 eyebrow Anatomy 0.000 title claims abstract description 448
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000012545 processing Methods 0.000 claims description 88
- 238000004458 analytical method Methods 0.000 claims description 38
- 238000013519 translation Methods 0.000 claims description 7
- 230000003447 ipsilateral effect Effects 0.000 claims description 5
- 210000004209 hair Anatomy 0.000 claims description 4
- 241000208340 Araliaceae Species 0.000 claims description 3
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 claims description 3
- 235000003140 Panax quinquefolius Nutrition 0.000 claims description 3
- 235000008434 ginseng Nutrition 0.000 claims description 3
- FGUUSXIOTUKUDN-IBGZPJMESA-N C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 Chemical compound C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 FGUUSXIOTUKUDN-IBGZPJMESA-N 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 40
- 230000006870 function Effects 0.000 description 12
- 230000009471 action Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 230000002146 bilateral effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 210000000624 ear auricle Anatomy 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/167—Detection; Localisation; Normalisation using comparisons between temporally consecutive images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/175—Static expression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/60—Static or dynamic means for assisting the user to position a body part for biometric acquisition
- G06V40/67—Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Business, Economics & Management (AREA)
- Geometry (AREA)
- Surgery (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Pathology (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Tourism & Hospitality (AREA)
- Biophysics (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Physiology (AREA)
- Artificial Intelligence (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开一种身体信息分析装置及其辅助比对眉型方法。辅助比对眉型方法包括以下步骤:撷取脸部影像;于脸部影像中识别眉毛影像;依据眉毛影像产生镜射眉型图案;依据眉毛影像的位置基于对称参考线计算镜射眉型图案的投影位置;及,显示脸部影像并同时于投影位置显示镜射眉型图案。本发明经由同时显示使用者的眉毛影像与建议的镜射眉型图案,可供使用者直觉且准确地进行修眉,而可大幅降低修眉的技术门槛并提高修眉成功的机率。
Description
技术领域
本发明是涉及装置与方法有关,特别涉及身体信息分析装置及其辅助比对眉型方法。
背景技术
修眉是技术门槛极高的化妆项目之一。成功的修眉可以改变脸型给人的感觉,进而提升给人的外观印象。
并且,修眉是否成功的判断依据通常是左眉与右眉的眉型是否对称。
一般而言,使用者都是坐在镜子前面进行修眉,或以智能型手机的相机及屏幕取代镜子来进行修眉。
然而,于使用者进行修眉时,往往只能凭空想象修整后的眉型,并依据想象来进行修眉。因此,修眉技术不佳的使用者常有修眉速度过慢或是修整后的左眉与右眉不对称的困扰。
有鉴于此,目前极需一种辅助装置,可有效地辅助经验不足的使用者快速进行修眉。
发明内容
本发明提供一种身体信息分析装置及其辅助比对眉型方法,可辅助使用者于进行修眉时比对目前眉型与建议眉型之间的差异。
于一实施例中,一种辅助比对眉型方法,应用于一身体信息分析装置,包括以下步骤:
a)控制该身体信息分析装置的一影像撷取模块撷取一脸部影像;
b)控制该身体信息分析装置的一处理单元识别该脸部影像一侧的一眉毛影像;
c)该处理单元依据所识别的该眉毛影像产生一镜射眉型图案;
d)该处理单元依据该眉毛影像的位置基于该脸部影像的一对称参考线计算该镜射眉型图案的一投影位置,其中该投影位置位于该脸部影像相对于该对称参考线的另一侧;及
e)控制该身体信息分析装置的一显示模块显示该脸部影像并同时于该投影位置显示该镜射眉型图案。
优选地,该步骤b)包括一步骤b1)对该脸部影像执行一脸部分析处理以识别该眉毛影像的多个眉毛特征点,其中该多个眉毛特征点分别对应眉毛的不同特征。
优选地,该步骤c)包括以下步骤:
c1)基于该对称参考线对该多个眉毛特征点执行一镜射处理以获得多个镜射特征点,其中该多个镜射特征点与该多个眉毛特征点分别位于该对称参考线的不同侧;及
c2)连接该多个镜射特征点来绘制该镜射眉型图案。
优选地,该步骤b1)进一步识别一鼻影像的多个鼻特征点,其中该多个鼻特征点分别对应鼻子的不同特征;并且于该步骤c1)之前更包括一步骤c0)依据该多个鼻特征点计算该对称参考线;该步骤d)是依据该多个眉毛特征点的位置基于该对称参考线计算该投影位置。
优选地,该步骤d)包括以下步骤:
d1)计算该多个眉毛特征点与该对称参考线间的多个第一垂直距离;及
d2)依据该多个第一垂直距离将该多个镜射特征点的位置设定于该对称参考线的另一侧,并依据设定后的该多个镜射特征点的位置计算该投影位置,其中该多个镜射特征点与该对称参考线间的多个第二垂直距离分别与该多个第一垂直距离相同,并且各该眉毛特征点与对应的各该镜射特征点之间的联机垂直该对称参考线。
优选地,于该步骤b)前更包括一步骤f)依据一基准侧选择指令或一基准侧选择操作选择该脸部影像的两侧的其中之一;该步骤b)是于该脸部影像中识别所选择的该侧的该眉毛影像;该步骤c)是依据所选择的该侧的该眉毛影像产生该镜射眉型图案。
优选地,该步骤b)包括一步骤b2)对该脸部影像执行一脸部分析处理以识别分别位于该脸部影像的两侧的一第一眉毛影像的多个第一眉毛特征点及一第二眉毛影像的多个第二眉毛特征点,依据该多个第一眉毛特征点建立一第一眉毛数据集,并依据该多个第二眉毛特征点建立一第二眉毛数据集,其中该多个第一眉毛特征点至少包括分别对应一侧眉毛的眉头、眉峰及眉尾的三个该第一眉毛特征点,该多个第二眉毛特征点至少包括分别对应另一侧眉毛的眉头、眉峰及眉尾的三个该第二眉毛特征点。
优选地,该步骤c)包括以下步骤:
c3)基于该对称参考线对该第一眉毛数据集执行一镜射处理以获得多个镜射特征点;
c4)依据该多个镜射特征点及该第二眉毛数据集计算一调整参数组,其中该调整参数组包括一平移参数、一旋转参数及一缩放参数;
c5)依据该对称参考线及该调整参数组调整该多个镜射特征点的位置;及
c6)依据调整后的该多个镜射特征点的位置来绘制该镜射眉型图案。
优选地,该步骤d)是依据调整后的该多个镜射特征点的位置计算该投影位置。
于一实施例中,一种身体信息分析装置,包括:
一影像撷取模块,用以撷取一脸部影像;
一显示模块,用以显示该脸部影像并同时于一投影位置显示一镜射眉型图案;及
一处理单元,电性连接该影像撷取模块及该显示模块,该处理单元识别该脸部影像一侧的一眉毛影像,依据所识别的该眉毛影像产生一镜射眉型图案,并依据该眉毛影像的位置基于该脸部影像的一对称参考线计算该镜射眉型图案的该投影位置,其中该投影位置位于该脸部影像相对于该对称参考线的另一侧。
优选地,该处理单元包括一脸部分析模块,该脸部分析模块对该脸部影像执行一脸部分析处理以识别该眉毛影像的多个眉毛特征点及一鼻影像的多个鼻特征点,其中该多个眉毛特征点分别对应眉毛的不同特征,该多个鼻特征点分别对应鼻子的不同特征。
优选地,该处理单元更包括以下步骤:
一镜射模块,用以基于该对称参考线对该多个眉毛特征点执行一镜射处理以获得多个镜射特征点,其中该多个镜射特征点与该多个眉毛特征点分别位于该对称参考线的不同侧;
一计算模块,用以依据该多个鼻特征点计算该对称参考线,并依据该对称参考线及该多个镜射特征点的位置计算该投影位置;及
一绘制模块,用以连接该多个镜射特征点来绘制该镜射眉型图案。
优选地,该计算模块是计算该多个眉毛特征点与该对称参考线间的多个第一垂直距离,并依据该多个垂直距离计算位于该对称参考线的另一侧的该多个镜射特征点,并依据该多个镜射特征点的位置计算该投影位置,其中该多个镜射特征点与该对称参考线间的多个第二垂直距离分别与该多个第一垂直距离相同,并且各该眉毛特征点与对应的各该镜射特征点之间的联机垂直该对称参考线。
优选地,该身体分析装置更包括:
一输入接口,电性连接该处理单元,用以接受选择该脸部影像的两侧的其中之一的一基准侧选择操作;及
一无线传输模块,连接一电子装置,用以自该电子装置接受选择该脸部影像的两侧的其中之一的一基准侧选择指令;
其中,该处理单元于该脸部影像中识别所选择的该侧的该眉毛影像,并依据所选择的该侧的该眉毛影像产生该镜射眉型图案。
优选地,该处理单元包括以下步骤:
一脸部分析模块,该脸部分析模块对该脸部影像执行一脸部分析处理以识别分别位于该对称参考线两侧的一第一眉毛影像的多个第一眉毛特征点及一第二眉毛影像的多个第二眉毛特征点,依据该多个第一眉毛特征点建立一第一眉毛数据集,并依据该多个第二眉毛特征点建立一第二眉毛数据集,其中该多个第一眉毛特征点至少包括分别对应一侧眉毛的眉头、眉峰及眉尾的三个该第一眉毛特征点,该多个第二眉毛特征点至少包括分别对应另一侧眉毛的眉头、眉峰及眉尾的三个该第二眉毛特征点;
一镜射模块,基于该对称参考线对该第一眉毛数据集执行一镜射处理以获得多个镜射特征点;
一计算模块,依据该多个镜射特征点及该第二眉毛数据集计算一调整参数组,依据该对称参考线及该调整参数组调整该多个镜射特征点的位置,并依据调整后的该多个镜射特征点的位置计算该投影位置,其中该调整参数组包括一平移参数、一旋转参数及一缩放参数;及
一绘制模块,用以依据调整后的该多个镜射特征点的位置来绘制该镜射眉型图案。
本发明经由同时显示使用者的眉毛影像与建议的镜射眉型图案,可供使用者直觉且准确地进行修眉,而可大幅降低修眉的技术门槛并提高修眉成功的机率。
附图说明
图1为本发明的第一实施例的***的架构图;
图2为本发明的身体信息分析装置的第一示意图;
图3为本发明的身体信息分析装置的第二示意图;
图4为本发明的第一实施例的身体信息分析装置的架构图;
图5为本发明的第一实施例的处理单元的示意图;
图6为本发明的第一实施例的辅助比对眉型方法的流程图;
图7为本发明的第二实施例的辅助比对眉型方法的流程图;
图8为本发明的第三实施例的辅助比对眉型方法的部分流程图;
图9为脸部分析示意图;
图10A为本发明第一实施例的辅助比对眉型的第一示意图;
图10B为本发明第一实施例的辅助比对眉型的第二示意图;
图10C为本发明第一实施例的辅助比对眉型的第三示意图;
图11A为本发明第二实施例的辅助比对眉型的第一示意图;
图11B为本发明第二实施例的辅助比对眉型的第二示意图;
图11C为本发明第二实施例的辅助比对眉型的第三示意图;
图12A为本发明的第三实施例的眉型识别的第一示意图;
图12B为本发明的第三实施例的眉型识别的第二示意图;
图12C为本发明的第三实施例的眉型识别的第三示意图;
图12D为本发明的第三实施例的眉型识别的第四示意图;
图13A为本发明的第四实施例的调整前的投影位置的示意图;
图13B为本发明的第四实施例的调整后的投影位置的示意图;
图14A为本发明的第五实施例的调整前的眉型的示意图;及
图14B为本发明的第五实施例的调整后的眉型的示意图。
其中,附图标记:
1…身体信息分析装置
10…处理单元
101…脸部分析模块
102…镜射模块
103…计算模块
104…绘制模块
11…镜面屏幕
111…显示模块
12…影像撷取模块
13…按键
14…传感器
15…输入接口
16…无线传输模块
2…电子装置
21…软件
3…无线路由器
4…因特网
5…镜像
51-53…脸部影像
6…特征点
61、64-69…眉毛特征点
61’、67’-69’…镜射特征点
62-63…鼻特征点
67”-69”…调整后的镜射特征点
71-76…眉毛影像
71’、73’…镜射眉型图案
81-82…对称参考线
90-92…图案
D1-D3…垂直距离
S10…S18…第一辅助比对眉型步骤
S200…S218…第二辅助比对眉型步骤
S30…S38…镜射眉型图案产生步骤
具体实施方式
下面结合附图和具体实施例对本发明技术方案进行详细的描述,以更进一步了解本发明的目的、方案及功效,但并非作为本发明所附权利要求保护范围的限制。
本发明公开了一种身体信息分析装置(下面简称为分析装置),所述分析装置主要用以执行一种辅助比对眉型方法(下面简称为比对方法),令使用者可轻易比对目前眉型与建议眉型之间的差异,以辅助使用者进行修眉。
参阅图1,为本发明的第一实施例的***的架构图。于图1的实施例中,使用者可操作电子装置2来对分析装置1进行设定。
具体而言,电子装置2的内存(图未标示)安装有软件21。软件21用来与分析装置1建立连接(如分析装置1的制造商所开发并提供的应用程序)。并且,使用者可经由操作软件21来对分析装置1进行各种设定动作(例如输入使用者的数据、注册使用者的脸部影像及/或设定各种默认值等)。
于一实施例中,使用者亦可直接操作分析装置1的输入接口(如图4所示的输入接口15)来进行各种设定动作。
于一实施例中,分析装置1的无线传输模块16可通过Wi-Fi通讯技术、蓝芽通讯技术、Zigbee通讯技术、无线射频(RF)通讯技术、红外线通讯技术、光通讯技术、声音通讯技术及/或其他无线通信技术来与电子装置2进行数据传输。
于一实施例中,分析装置1可连接至所在区域中的无线路由器3,以经由无线路由器3连接因特网4。藉此,分析装置1可经由因特网4进行韧体更新、数据上传与下载等动作。并且,分析装置1还可经由因特网4将使用者的身体信息(如后述的脸部影像、眉毛影像及/或镜射眉型图案等等)传送至远程的计算机设备(图未标示),以令使用者于远程进行查看,或是藉此实现异地备援的目的。
请同时参阅图2及图3,图2为本发明的身体信息分析装置的第一示意图,图3为本发明的身体信息分析装置的第二示意图。图2及图3的实施例的分析装置1主要设置于使用者的卧室或化妆室,以便于使用者进行身体信息(例如脸部、颈部或手部)的侦测与分析。
分析装置1具有镜面屏幕11。当分析装置1启动(如图2所示)时,可通过镜面屏幕11显示图形使用者接口(Graphical User Interface,GUI),并藉由图形使用者接口与使用者进行互动。另一方面,当分析装置1被关闭(如图3所示)时,镜面屏幕11可做为单纯的镜子来使用,以反射使用者的光学的镜像5。
本发明主要是通过分析装置1来协助使用者进行化妆动作(如修眉),因此镜面屏幕11可以显示图形使用者接口并且同时反射使用者的光学的镜像5,以利于在使用者化妆时对使用者的妆容进行分析,并且同时提供辅助(容后详述)。
于一实施例中,分析装置1还具有影像撷取模块12,设置于分析装置1上并且可接受角度的调整。于一实施例中,影像撷取模块12可对使用者进行拍摄以撷取高分辨率影像(例如脸部影像、颈部影像或手部影像等),分析装置1可藉由所述影像分析使用者的身体信息及化妆进度。于另一实施例中,影像撷取模块12可撷取外部的信息(例如一维条形码、二维条形码等),以藉由信息的内容来取得对应数据。
并且,分析装置1是将经由影像撷取模块12所撷取的影像实时显示于镜面屏幕11中。藉此,即便镜面屏幕11未关闭,使用者亦可实时于镜面屏幕11中查看自身的电子的镜像5。
更进一步地,分析装置1还可先对所撷取的影像进行实时处理(如于影像中添加后述的镜射眉型图案等标记,或其他用以协助使用者进行修眉的指示图文),再将处理后的影像显示于镜面屏幕11。
藉此,分析装置1可经由扩增实境的方式(Augmented Reality,AR),于使用者化妆时对实时且直觉地于镜面屏幕11上提供辅助信息,而可有效提升使用者体验。
于一实施例中,镜面屏幕11可为触摸屏,使用者可通过镜面屏幕11对分析装置1进行数据的输入动作。
分析装置1还可具备多个按键13。本实施例中,多个按键13可为实体按键(button)或触控按键(touch key),不加以限定。使用者可藉由触发按键13对上述图形使用者接口进行操控(例如控制图形使用者接口回到首页、上一页或下一页等),或是令分析装置1快速执行对应的功能(例如开启镜面屏幕11、关闭镜面屏幕11、启动影像撷取模块12等)。
分析装置1还可具有一或多个传感器14(例如为温度传感器、湿度传感器等),以感测分析装置1所在环境的环境数据,藉此提升分析装置1对使用者的身体信息的侦测与分析的准确率。于一实施例中,所述传感器14还可为动作传感器(motion sensor),分析装置1可藉由动作传感器感测使用者的移动手势(例如向左挥、向右挥、向上挥、向下挥、往前推或往后拉等)。如此一来,使用者可藉由手势来对分析装置1进行数据输入动作,不需触碰上述镜面屏幕11或按键13,以避免指纹的残留。
续请参阅图4,为本发明的第一实施例的身体信息分析装置的架构图。如图4所示,分析装置1主要包括处理单元10,以及与处理单元10电性连接的显示模块111、影像撷取模块12、输入接口15及无线传输模块16。
于一实施例中,影像撷取模块12为相机或摄影机,用以撷取外部影像(如使用者的脸部影像)与外部信息。分析装置1可通过外部影像对使用者进行辨识(例如眉毛辨识、脸部辨识、颈部辨识或手部辨识等),以对使用者的眉毛、脸部、颈部或手部等部位进行分析,或是通过外部信息的内容来执行对应的动作。
显示模块111用以显示上述的图形使用者接口。于一实施例中,显示模块111安装于所述镜面屏幕11之中。当显示模块111被致能时,显示模块111的光源可穿透镜面屏幕11的单向玻璃(图未标示)并投射至使用者眼中,而令使用者可于镜面屏幕11看见图形使用者接口。当显示模块111被禁能时,由于单向玻璃的单面透光特性,使用者仅可于镜面屏幕11上看见自身的光学的镜像5。于一实施例中,分析装置1还可调整显示模块111的光源强度或是显示区域,以令镜面屏幕11可以在反射使用者的光学的镜像5的同时显示图形使用者接口。
分析装置1通过输入接口15接收使用者的外部输入,藉此使用者可与图形使用者接口进行互动,或是进行所需的设定动作。于一实施例中,输入接口15可为上述的传感器14,用以感测使用者的手势输入。于另一实施例中,输入接口15可为上述的影像撷取模块12,用以撷取外部影像或外部信息。于又一实施例中,输入接口15可为触控屏幕或按键13,可接受使用者的输入动作。于再一实施例中,输入接口15可为麦克风,用以接收外部音频。
无线传输模块16用以连接因特网4。具体而言,使用者可藉由因特网4从远程连接至分析装置1,以随时查看分析装置1所记录的各种信息(例如身体信息)。
处理单元10连接显示模块111、影像撷取模块12、输入接口15及无线传输模块16,并且处理单元10包括计算机可执行程序代码(图未标示)。通过计算机可执行程序代码的执行,处理单元10可进一步实现本发明的比对方法。
请同时参阅图5,为本发明的第一实施例的处理单元的示意图。具体而言,处理单元10主要是通过上述计算机可执行程序代码来执行本发明的比对方法中的各个功能,并且依据不同的功能,可将上述计算机可执行程序代码区分为下列几个功能模块:
1.脸部分析模块101,用以对影像撷取模块12所撷取的脸部影像执行脸部分析处理。具体而言,脸部分析模块101可于脸部影像中识别出脸部各部位的影像(如眉毛影像、眼影像、鼻影像、耳影像或嘴影像等等)。于一实施例中,脸部分析模块101可对脸部影像执行脸部分析处理以识别各部位的影像的多个特征点(如图9所示),其中各特征点分别对应使用者的脸部的特定部位的不同特征(如眉毛的眉头、眉尾或眉峰,鼻子的鼻梁、鼻头或鼻翼,眼部的眼头或眼尾)。
2.镜射模块102,用以对位于对称参考线一侧的特定部位(如双眉其中之一、双眼其中之一、鼻的左半部或右半部、双耳其中之一、嘴的左半部或右半部或其他外观对称的部位)的特征点执行镜射处理,以获得位于对称参考线另一侧的镜射特征点,其中所获得的各镜射特征点与所述特定部位的各特征点相互对应。
3.计算模块103,用以计算脸部影像的对称参考线,并可计算上述特定部位的投影图案于对称参考线另一侧的建议投影位置。
4.绘制模块104,用以绘制上述投影图案。
于一实施例中,脸部分析模块101识别脸部影像的一侧眉毛影像(如左眉影像)的多个眉毛特征点。镜射模块102对多个眉毛特征点执行镜射处理以获得多个镜射特征点。计算模块103计算对称参考线,并依据对称参考线及镜射特征点计算投影位置,其中投影位置与多个眉毛特征点分别位于对称参考线的不同侧。绘制模块104依据多个镜射特征点于投影位置绘制镜射眉型图案。
藉此,本发明可依据脸部影像一侧的对称部位(例如左边眉毛)绘制另一侧的对称部位(例如右边眉毛),并投影于适当位置,而令使用者可作为化妆依据。
续请参阅图6,为本发明的第一实施例的辅助比对眉型方法的流程图。本发明的分析装置1是通过处理单元10执行上述的计算机可执行程序代码(如上述各功能模块101-104),进而实现本发明各实施例的比对方法的各步骤。
本实施例的比对方法包括用以实现辅助比对眉型功能的以下步骤。
步骤S10:分析装置1的处理单元10控制影像撷取模块12对使用者的脸部进行拍摄,以撷取使用者的脸部影像(如图9所示脸部影像51)。
步骤S12:处理单元10对所撷取的脸部影像51执行脸部分析处理,以于脸部影像51中识别眉毛影像。
于一实施例中,处理单元10仅识别位于脸部影像51的一侧(如左侧)的一组眉毛影像(如左眉毛影像),但不以此限定。于另一实施例中,处理单元10亦可识别分别位于脸部影像51两侧的两组眉毛影像(即右眉毛影像及左眉毛影像),并选择其中之一来进行后续处理。
于一实施例中,处理单元10是经由脸部分析模块101对脸部影像51进行分析,以识别脸部的多个部位(如脸轮廓、眼、眉、鼻、嘴、耳及脸部其他部位)的影像,并选择两组眉毛影像的其中之一来进行后续处理。
于一实施例中,前述脸部分析处理是通过脸部标记(Face Landmark)算法对脸部影像51进行分析,以对脸部影像51中的脸部的特定部位进行定位,但不加以限定。更进一步地,前述脸部标记算法是使用Dlib函式库(Library)来加以实现。
请参阅图9,为脸部分析示意图。于执行脸部分析处理时,脸部分析模块101先于脸部影像51中通过上述脸部标记算法对脸部影像51进行分析。前述脸部标记算法为本技术领域中的常用技术手段,其可基于机器学习(Machine Learning)技术对脸部影像51进行脸部分析,以识别脸部的一或多个特定部位(如眉、眼、鼻或耳)的多个特征点6(如眉峰与眉头、眼尾与眼头、鼻梁与鼻翼、耳壳与耳垂等等,例如可为68个特征点6或198个特征点6)。并且,前述脸部标记算法可进一步将特定部位的多个特征点6标记于脸部影像51。
于一实施例中,脸部分析模块101可依据各特征点6所属的部位及所对应的特征对各特征点6进行编号。
藉此,本发明可依据多个特征点6的号码、形状、排序等信息而于脸部影像51中确定各个部位的位置,以识别特定部位。
复请参阅图6,接着执行步骤S14:处理单元10依据所识别的(或所选择的)眉毛影像经由镜射模块102及绘制模块104产生镜射眉型图案。
于一实施例中,镜射模块102先对所识别(或所选择的)眉毛影像(例如左边眉毛)的多个眉毛特征点执行镜射处理,以获得多个镜射特征点特征点。接着,绘制模块104依据多个镜射特征点绘制镜射眉型图案。
于一实施例中,处理单元10可经由计算模块103计算脸部影像51的对称参考线,再经由镜射模块102及绘制模块104基于所计算的对称参考线产生镜射眉型图案。
步骤S16:处理单元10依据眉毛影像的位置基于的对称参考线计算镜射眉型图案于脸部影像51中的投影位置。于一实施例中,投影位置与眉毛影像的多个眉毛特征点分别位于脸部影像51的不同侧,即投影位置与眉毛影像的多个眉毛特征点分别位于对称参考线的两侧。
步骤S18:处理单元10控制显示模块111显示所撷取的脸部影像51,并同时于所算出的投影位置上显示镜射眉型图案,其中所述投影位置位于脸部影像51上,因此镜射眉型图案会与脸部影像51重叠。于一实施例中,镜射眉型图案是被显示于脸部影像51的上层,因此镜射眉型图案会遮挡部分的脸部影像51。在一实施例中,更包括藉由图像处理,将使用者原本之眉毛移除,并留下镜射眉型图案。
请参阅图10A至图10C,图10A为本发明第一实施例的辅助比对眉型的第一示意图,图10B为本发明第一实施例的辅助比对眉型的第二示意图,图10C为本发明第一实施例的辅助比对眉型的第三示意图。于本例子中,使用者是以右眉为基准来对左眉进行修眉。
首先,分析装置1拍摄脸部影像52(本例子以拍摄局部的脸部影像为例,脸部影像52是与使用者左右相反的电子的镜像,即脸部影像52的左眉的影像实际上是对应使用者的右眉),于所拍摄的脸部影像52中识别对应使用者右眉的右眉毛影像71及对应使用者左眉的左眉毛影像72,并选择右眉毛影像71进行处理(如图10A所示)。
接着,分析装置1产生镜射眉型图案71’,计算脸部影像52的对称参考线81(如图10B所示),并基于对称参考线81及右眉毛影像71的位置计算投影位置。最后,分析装置1显示脸部影像52,并同时于投影位置显示镜射眉型图案71’(如图10C所示)。
藉此,使用者可经由直接观看分析装置1来依据左眉毛影像72与镜射眉型图案71’之间的形状及位置差异进行左眉毛的修眉动作,而可直觉且准确地进行修眉,并使得修整完成的左眉毛可以与右眉毛对称。
于一实施例中,分析装置1可于辅助比对眉型功能开启期间,不断地重复执行步骤S10-S18来刷新显示画面。藉此,分析装置1可通过镜面屏幕11显示使用者的实时镜像。并且,由于本实施例会不断地重新计算镜射眉型图案71’及其投影位置,本实施例的镜射眉型图案71’及其投影位置会随着使用者移动而对应变动。
举例来说,若使用者朝左移动,则重新计算的镜射眉型图案71’的投影位置会对应偏左,这可使得所显示的镜射眉型图案71’可与脸部影像52中的其他部位维持固定的相对位置;若使用者朝接近分析装置1的方向移动,重新产生的镜射眉型图案71’的尺寸会对应放大,这可使得所显示的镜射眉型图案71’可与脸部影像52的其他部位维持固定的相对比例,以此类推。
藉此,使用者可于镜面屏幕11上同时看见自己的实时脸部影像52与建议的镜射眉型图案71’及其位置,而可直觉且准确地进行修眉,并可大幅降低修眉的技术门槛并提高修眉成功的机率。
续请同时参阅图7及图11A至图11C,图7为本发明的第二实施例的辅助比对眉型方法的流程图,图11A为本发明第二实施例的辅助比对眉型的第一示意图,图11B为本发明第二实施例的辅助比对眉型的第二示意图,图11C为本发明第二实施例的辅助比对眉型的第三示意图。本实施例的比对方法包括用以实现辅助比对眉型功能的以下步骤。
步骤S200:处理单元10控制影像撷取模块12对使用者进行拍摄以取得使用者的脸部影像。
步骤S202:处理单元10选择脸部影像的两侧的其中之一作为基准侧。具体而言,使用者可先对右眉进行修眉,于修整完成后再使用分析装置1,并选择修整后的右眉做为所述基准侧,以通过分析装置1接续对左眉进行修整,反之亦然。
于一实施例中,使用者可经由分析装置1的输入接口15输入基准侧选择操作,其中前述基准侧选择操作是选择脸部影像的两侧的其中之一。或者,使用者可操作电子装置2来发送基准侧选择指令至分析装置1的无线传输模块16,其中前述基准侧选择指令是选择脸部影像的两侧的其中之一。接着,处理单元10可依据基准侧选择指令或基准侧选择操作来选择脸部影像的两侧的其中之一以作为上述基准侧。
步骤S204:处理单元10经由脸部分析模块101对脸部影像执行脸部分析处理以识别脸部的一或多个特定部位的多个特征点。
于一实施例中,脸部分析模块101识别右眉毛影像73(第一眉毛影像)的多个眉毛特征点61(第一眉毛特征点)及左眉毛影像74(第二眉毛影像)的多个眉毛特征点(图未标示,下称第二眉毛特征点),选择基准侧的眉毛影像(以选择右眉毛影像73为例),并依据多个第一眉毛特征点来建立眉毛数据集(第一眉毛数据集),依据依据多个第二眉毛特征点来建立眉毛数据集(第二眉毛数据集),其中多个第一眉毛特征点分别对应右眉毛上的不同特征,多个第二眉毛特征点分别对应左眉毛上的不同特征。更进一步地,其中多个第一眉毛特征点至少包括分别对应右眉毛的眉头、眉峰及眉尾的三个特征点,多个第二眉毛特征点至少包括分别对应左眉毛的眉头、眉峰及眉尾的三个特征点。
于一实施例中,脸部分析模块101还可进一步识别鼻影像的多个鼻特征点(图11A以设定两个鼻特征点62、63为例,其中鼻特征点62对应鼻子的鼻梁,鼻特征点63对应鼻子的鼻小柱),并依据前述多个鼻特征点建立鼻数据集。前述多个鼻特征点可用于计算对称参考线82。
步骤S206:处理单元10经由计算模块103依据鼻数据集计算对称参考线82。
于一实施例中,计算模块103是将通过鼻数据集的多个鼻特征点62、63的直线作为对称参考线82。
于一实施例中,计算模块103是对鼻数据集的多个鼻特征点62、63进行线性回归运算,并将所算出回归线作为对称参考线82。
于一实施例中,计算模块103是直接将脸部影像的中线作为对称参考线82。
步骤S208:处理单元10经由镜射模块102基于对称参考线82对第一眉毛数据集执行镜射处理,以获得包括多个镜射特征点61’的排列关系的镜射数据集。
于一实施例中,处理单元10执行镜射处理仅产生多个镜射特征点61’的排列关系,但不会设定各镜射特征点61’的位置。
步骤S210:处理单元10经由绘制模块104连接第一眉毛数据集的多个镜射特征点61’来绘制镜射眉型图案73’。
步骤S212:处理单元10经由计算模块103计算第一眉毛数据集的全部或部份眉毛特征点61与对称参考线82间的多个垂直距离(第一垂直距离)。
请参阅图11B,举例来说,计算模块103可算出第一个眉毛特征点61与对称参考线82间的第一垂直距离为D1,第二个眉毛特征点61与对称参考线82间的第一垂直距离为D2,第三个眉毛特征点61与对称参考线82间的第一垂直距离为D3...以此类推。
步骤S214:处理单元10经由镜射模块102基于对称参考线82及所算出的多个垂直距离设定位于对称参考线82的另一侧的多个镜射特征点61’的位置,并依据所设定的多个镜射特征点61’的位置计算镜射眉型图案73’的投影位置。
于一实施例中,设定位置后的多个镜射特征点61’与对称参考线间的多个垂直距离(第二垂直距离)分别与多个眉毛特征点61与对称参考线82间的多个第一垂直距离相同。
请参阅图11C,举例来说,第一个镜射特征点61’与对称参考线82间的第二垂直距离为D1,第二个镜射特征点61’与对称参考线82间的第二垂直距离为D2,第三个镜射特征点61’与对称参考线82间的第二垂直距离为D3...以此类推。各第二垂直距离是分别与对应的第一垂直距离相同。
于一实施例中,各眉毛特征点61与对应的镜射特征点61’之间的联机垂直对称参考线82。换句话说,各眉毛特征点61与对应的镜射特征点61’于脸部影像中是左右对称。
值得一提的是,前述投影位置可为脸部影像中特定区域或单点位置。
于一实施例中,镜射模块102是将多个镜射特征点61’所围成的区域作为投影位置,但不以此限定。
于另一实施例中,镜射模块102可计算多个镜射特征点61’的中心并作为投影位置。或者,镜射模块102可选择多个镜射特征点61’的其中之一(如选择对应眉头的镜射特征点61’),并将所选择的镜射特征点61’的位置作为投影位置。
于一实施例中,步骤S208-S214可被整合执行。具体而言,处理单元10可基于对称参考线82及所算出的多个垂直距离产生多个镜射特征点61’,并直接设定位于对称参考线82的另一侧的多个镜射特征点61’的位置(经由多个镜射特征点61’的位置可推知多个镜射特征点61’之间的排列关系)。接着,处理单元10依据多个镜射特征点61’的位置计算投影位置并绘制镜射眉形图案。
步骤S216:处理单元10于显示模块111显示脸部影像53,并于投影位置显示镜射眉型图案73’。
于一实施例中,若镜射模块102是将多个镜射特征点61’的中心作为投影位置,则处理单元10是将镜射眉型图案73’的中心对齐投影位置并加以显示。
于一实施例中,若镜射模块102是将多个镜射特征点61’所围成的区域作为投影位置,则处理单元10是将镜射眉型图案73’显示于所围成的区域中。
于一实施例中,若镜射模块102是选择多个镜射特征点61’的其中之一作为投影位置,则处理单元10是将镜射眉型图案73’的特定部位对齐投影位置并加以显示。
步骤S218:处理单元10判断使用者是否关闭辅助比对眉型功能。
具体而言,使用者于修眉完成后,可经由输入接口15或电子装置2关闭辅助比对眉型功能。
若处理单元10判断辅助比对眉型功能被关闭,则结束辅助比对眉型方法。否则,处理单元10再次执行步骤S200-S216。
本发明经由依据垂直距离计算投影位置,可有效降低运算量,降低处理延迟并提升显示流畅度,而令使用者可于镜面屏幕11实时观看自身镜像与镜射眉型图案,进而提升使用者体验。
于前述实施例中,镜射眉型图案的投影位置与基准侧的眉毛影像的位置是完全左右对称。并且,镜射眉型图案的范围与形状亦是与基准侧的眉毛影像完全左右对称。
然而,一般而言,人脸的各部位并不会完全左右对称(如左眼高度与右眼高度可能不同,鼻梁与脸部中线可能不会完全重叠,或者,左眉毛的粗细或角度与右眉毛的形状或角度可能不同)。若使用者依据完全对称的镜射眉型图案及投影位置进行修眉,可能导致修眉后的左眉毛及右眉毛过度一致而显得不够自然。
针对上述问题,本发明进一步提供一种眉毛修饰功能,可依据修眉前的眉毛的形状、角度或位置调整镜射眉型图案的形状或角度,或调整投影位置,而使修眉后的眉毛更为自然。
续请同时参阅图6、图8及图12A至图14B,图8为本发明的第三实施例的辅助比对眉型方法的部分流程图,图12A为本发明的第三实施例的眉型识别的第一示意图,图12B为本发明的第三实施例的眉型识别的第二示意图,图12C为本发明的第三实施例的眉型识别的第三示意图,图12D为本发明的第三实施例的眉型识别的第四示意图,图13A为本发明的第四实施例的调整前的投影位置的示意图,图13B为本发明的第四实施例的调整后的投影位置的示意图,图14A为本发明的第五实施例的调整前的眉型的示意图,图14B为本发明的第五实施例的调整后的眉型的示意图。相较于图6所示的实施例,本实施例的步骤S14更包括步骤S30-S38。
本实施例是以对应第二眉毛影像76(如左眉影像)的第二眉毛数据集做为基准来于脸部影像的另一侧(如右侧)显示建议的镜射眉型图案,而令使用者可据以修饰右眉。
于本实施例的步骤S14中,处理单元10是经由脸部分析模块101对脸部影像执行脸部分析处理以识别分别位于对称参考线两侧的第一眉毛影像75及第二眉毛影像76,于第一眉毛影像75上设定多个第一眉毛特征点以建立第一眉毛数据集(如图12A所示),并于第二眉毛影像76上设定多个第二眉毛特征点以建立第二眉毛数据集(如图12B所示)。
并且,于本实施例的步骤S16中,处理单元10是经由计算模块103将调整后的多个镜射特征点的位置(容后详述)作为投影位置。
于一实施例中,其中三个第一眉毛特征点64-66及三个第二眉毛特征点67-69分别对应使用者的眉毛的眉头、眉峰及眉尾。具体而言,第一眉毛特征点64及第二眉毛特征点67对应眉头,第一眉毛特征点65及第二眉毛特征点68对应眉峰,第一眉毛特征点66及第二眉毛特征点69对应眉尾。
相较于图6所示的实施例,本实施例的步骤S14包括以下步骤。
步骤S30:处理单元10经由计算模块103计算对称参考线。
步骤S32:处理单元10基于对称参考线对第二眉毛数据集的多个第二眉毛特征点67-69执行镜射处理以获得镜射后的多个镜射特征点67’-69’(如图12D所示)。并且,处理单元10不须对第一眉毛数据集的多个第一眉毛特征点64-66执行镜射处理(如图12C所示)。
步骤S34:处理单元10经由计算模块103依据多个镜射特征点67’-69’及作为基准的第二眉毛数据集计算调整参数组。
于一实施例中,前述调整参数组包括平移(translation)参数、旋转(rotation)参数及缩放(scaling)参数。
于一实施例中,计算模块103是使用Rigid Registration***结合Least-squareestimation算法来计算前述调整参数组。Rigid Registration***及Least-squareestimation算法为本技术领域中的常用技术手段,可对两笔数据(如多个第一眉毛特征点64-66与多个镜射特征点67’-69’)进行分析,并计算一组调整参数组。当使用所计算的调整参数组对其中一笔数据(如多个镜射特征点67’-69’)进行变换处理后,可使变换后的数据与另一数据具有较高相似度。
步骤S36:处理单元10经由计算模块103依据对称参考线及所计算的调整参数组调整多个镜射特征点67’-69’(如图13A所示)的位置,以使调整位置后的多个镜射特征点67”-69”(如图13B所示)与对应未修剪的眉毛的多个第一眉毛特征点64-66之间具有较高相似度。
于一实施例中,计算模块103依据平移参数变换多个镜射特征点67’-69’的位置以平移多个镜射特征点67’-69’围绕而成的图案,依据旋转参数变换多个镜射特征点67’-69’的位置以旋转多个镜射特征点67’-69’围绕而成的图案,或依据缩放参数变换多个镜射特征点67’-69’的位置以缩放多个镜射特征点67’-69’围绕而成的图案。
请参阅图13A、图13B、图14A及图14B。如图所示,于依据调整参数组变换位置前,多个镜射特征点67’-69’围绕而成的图案90与多个第一眉毛特征点64-66(对应未修整的眉毛)围绕而成的图案91存在极大差异,这使得使用者必须大幅修眉。并且,修眉后的双眉可能因过度一致而显得不够自然。
于依据调整参数组变换位置后,变换后的多个镜射特征点67”-69”围绕而成的图案92与图案91具有较高相似度,这使得使用者不须大幅修眉。并且,由于修眉后的双眉具有些微差异,而更显得自然。
步骤S38:处理单元10经由绘制模块104依据调整后的多个镜射特征点67”-69”的位置来绘制镜射眉型图案。
本发明可有效实现眉毛修饰功能,而使修眉后的眉毛更为自然。
当然,本发明还可有其它多种实施例,在不背离本发明精神及其实质的情况下,熟悉本领域的技术人员当可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。
Claims (15)
1.一种辅助比对眉型方法,应用于一身体信息分析装置,其特征在于,该辅助比对眉型方法包括以下步骤:
a)控制该身体信息分析装置的一影像撷取模块撷取一脸部影像;
b)控制该身体信息分析装置的一处理单元识别该脸部影像一侧的一眉毛影像;
c)该处理单元依据所识别的该眉毛影像产生一镜射眉型图案;
d)该处理单元依据该眉毛影像的位置基于该脸部影像的一对称参考线计算该镜射眉型图案的一投影位置,其中该投影位置位于该脸部影像相对于该对称参考线的另一侧;及
e)控制该身体信息分析装置的一显示模块显示该脸部影像并同时于该投影位置显示该镜射眉型图案。
2.如权利要求1所述的辅助比对眉型方法,其特征在于,该步骤b)包括一步骤b1)对该脸部影像执行一脸部分析处理以识别该眉毛影像的多个眉毛特征点,其中该多个眉毛特征点分别对应眉毛的不同特征。
3.如权利要求2所述的辅助比对眉型方法,其特征在于,该步骤c)包括以下步骤:
c1)基于该对称参考线对该多个眉毛特征点执行一镜射处理以获得多个镜射特征点,其中该多个镜射特征点与该多个眉毛特征点分别位于该对称参考线的不同侧;及
c2)连接该多个镜射特征点来绘制该镜射眉型图案。
4.如权利要求3所述的辅助比对眉型方法,其特征在于,该步骤b1)进一步识别一鼻影像的多个鼻特征点,其中该多个鼻特征点分别对应鼻子的不同特征;并且于该步骤c1)之前更包括一步骤c0)依据该多个鼻特征点计算该对称参考线;该步骤d)是依据该多个眉毛特征点的位置基于该对称参考线计算该投影位置。
5.如权利要求4所述的辅助比对眉型方法,其特征在于,该步骤d)包括以下步骤:
d1)计算该多个眉毛特征点与该对称参考线间的多个第一垂直距离;及
d2)依据该多个第一垂直距离将该多个镜射特征点的位置设定于该对称参考线的另一侧,并依据设定后的该多个镜射特征点的位置计算该投影位置,其中该多个镜射特征点与该对称参考线间的多个第二垂直距离分别与该多个第一垂直距离相同,并且各该眉毛特征点与对应的各该镜射特征点之间的联机垂直该对称参考线。
6.如权利要求1所述的辅助比对眉型方法,其特征在于,于该步骤b)前更包括一步骤f)依据一基准侧选择指令或一基准侧选择操作选择该脸部影像的两侧的其中之一;该步骤b)是于该脸部影像中识别所选择的该侧的该眉毛影像;该步骤c)是依据所选择的该侧的该眉毛影像产生该镜射眉型图案。
7.如权利要求1所述的辅助比对眉型方法,其特征在于,该步骤b)包括一步骤b2)对该脸部影像执行一脸部分析处理以识别分别位于该脸部影像的两侧的一第一眉毛影像的多个第一眉毛特征点及一第二眉毛影像的多个第二眉毛特征点,依据该多个第一眉毛特征点建立一第一眉毛数据集,并依据该多个第二眉毛特征点建立一第二眉毛数据集,其中该多个第一眉毛特征点至少包括分别对应一侧眉毛的眉头、眉峰及眉尾的三个该第一眉毛特征点,该多个第二眉毛特征点至少包括分别对应另一侧眉毛的眉头、眉峰及眉尾的三个该第二眉毛特征点。
8.如权利要求7所述的辅助比对眉型方法,其特征在于,该步骤c)包括以下步骤:
c3)基于该对称参考线对该第一眉毛数据集执行一镜射处理以获得多个镜射特征点;
c4)依据该多个镜射特征点及该第二眉毛数据集计算一调整参数组,其中该调整参数组包括一平移参数、一旋转参数及一缩放参数;
c5)依据该对称参考线及该调整参数组调整该多个镜射特征点的位置;及
c6)依据调整后的该多个镜射特征点的位置来绘制该镜射眉型图案。
9.如权利要求8所述的辅助比对眉型方法,其特征在于,该步骤d)是依据调整后的该多个镜射特征点的位置计算该投影位置。
10.一种身体信息分析装置,其特征在于,包括:
一影像撷取模块,用以撷取一脸部影像;
一显示模块,用以显示该脸部影像并同时于一投影位置显示一镜射眉型图案;及
一处理单元,电性连接该影像撷取模块及该显示模块,该处理单元识别该脸部影像一侧的一眉毛影像,依据所识别的该眉毛影像产生一镜射眉型图案,并依据该眉毛影像的位置基于该脸部影像的一对称参考线计算该镜射眉型图案的该投影位置,其中该投影位置位于该脸部影像相对于该对称参考线的另一侧。
11.如权利要求10所述的身体信息分析装置,其特征在于,该处理单元包括一脸部分析模块,该脸部分析模块对该脸部影像执行一脸部分析处理以识别该眉毛影像的多个眉毛特征点及一鼻影像的多个鼻特征点,其中该多个眉毛特征点分别对应眉毛的不同特征,该多个鼻特征点分别对应鼻子的不同特征。
12.如权利要求10所述的身体信息分析装置,其特征在于,该处理单元更包括:
一镜射模块,用以基于该对称参考线对该多个眉毛特征点执行一镜射处理以获得多个镜射特征点,其中该多个镜射特征点与该多个眉毛特征点分别位于该对称参考线的不同侧;
一计算模块,用以依据该多个鼻特征点计算该对称参考线,并依据该对称参考线及该多个镜射特征点的位置计算该投影位置;及
一绘制模块,用以连接该多个镜射特征点来绘制该镜射眉型图案。
13.如权利要求12所述的身体信息分析装置,其特征在于,该计算模块是计算该多个眉毛特征点与该对称参考线间的多个第一垂直距离,并依据该多个第一垂直距离计算位于该对称参考线的另一侧的该多个镜射特征点,并依据该多个镜射特征点的位置计算该投影位置,其中该多个镜射特征点与该对称参考线间的多个第二垂直距离分别与该多个第一垂直距离相同,并且各该眉毛特征点与对应的各该镜射特征点之间的联机垂直该对称参考线。
14.如权利要求10所述的身体信息分析装置,其特征在于,更包括:
一输入接口,电性连接该处理单元,用以接受选择该脸部影像的两侧的其中之一的一基准侧选择操作;及
一无线传输模块,连接一电子装置,用以自该电子装置接受选择该脸部影像的两侧的其中之一的一基准侧选择指令;
其中,该处理单元于该脸部影像中识别所选择的该侧的该眉毛影像,并依据所选择的该侧的该眉毛影像产生该镜射眉型图案。
15.如权利要求10所述的身体信息分析装置,其特征在于,该处理单元包括:
一脸部分析模块,该脸部分析模块对该脸部影像执行一脸部分析处理以识别分别位于该对称参考线两侧的一第一眉毛影像的多个第一眉毛特征点及一第二眉毛影像的多个第二眉毛特征点,依据该多个第一眉毛特征点建立一第一眉毛数据集,并依据该多个第二眉毛特征点建立一第二眉毛数据集,其中该多个第一眉毛特征点至少包括分别对应一侧眉毛的眉头、眉峰及眉尾的三个该第一眉毛特征点,该多个第二眉毛特征点至少包括分别对应另一侧眉毛的眉头、眉峰及眉尾的三个该第二眉毛特征点;
一镜射模块,基于该对称参考线对该第一眉毛数据集执行一镜射处理以获得多个镜射特征点;
一计算模块,依据该多个镜射特征点及该第二眉毛数据集计算一调整参数组,依据该对称参考线及该调整参数组调整该多个镜射特征点的位置,并依据调整后的该多个镜射特征点的位置计算该投影位置,其中该调整参数组包括一平移参数、一旋转参数及一缩放参数;及
一绘制模块,用以依据调整后的该多个镜射特征点的位置来绘制该镜射眉型图案。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710896760.9A CN109583261A (zh) | 2017-09-28 | 2017-09-28 | 身体信息分析装置及其辅助比对眉型方法 |
US15/870,984 US10521648B2 (en) | 2017-09-28 | 2018-01-14 | Body information analysis apparatus and method of auxiliary comparison of eyebrow shapes thereof |
KR1020180005061A KR102045218B1 (ko) | 2017-09-28 | 2018-01-15 | 신체 정보 분석 장치 및 눈썹 모양 보조 비교 방법 |
JP2018006441A JP6761824B2 (ja) | 2017-09-28 | 2018-01-18 | 身体情報分析装置およびその眉型比較補助方法 |
EP18161754.9A EP3462376B1 (en) | 2017-09-28 | 2018-03-14 | Body information analysis apparatus and method of auxiliary comparison of eyebrow shapes thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710896760.9A CN109583261A (zh) | 2017-09-28 | 2017-09-28 | 身体信息分析装置及其辅助比对眉型方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109583261A true CN109583261A (zh) | 2019-04-05 |
Family
ID=61691252
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710896760.9A Pending CN109583261A (zh) | 2017-09-28 | 2017-09-28 | 身体信息分析装置及其辅助比对眉型方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10521648B2 (zh) |
EP (1) | EP3462376B1 (zh) |
JP (1) | JP6761824B2 (zh) |
KR (1) | KR102045218B1 (zh) |
CN (1) | CN109583261A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114554097A (zh) * | 2022-02-28 | 2022-05-27 | 维沃移动通信有限公司 | 显示方法、显示装置、电子设备和可读存储介质 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109288233A (zh) * | 2017-07-25 | 2019-02-01 | 丽宝大数据股份有限公司 | 可标示修容区域的身体信息分析装置 |
WO2019142420A1 (ja) * | 2018-01-22 | 2019-07-25 | ソニー株式会社 | 情報処理装置および情報処理方法 |
CN109165571B (zh) * | 2018-08-03 | 2020-04-24 | 北京字节跳动网络技术有限公司 | 用于***图像的方法和装置 |
JP7175476B2 (ja) * | 2019-10-30 | 2022-11-21 | 有限会社 ティ・アール・コーポレーション | デザイン方法、眉デザインサーバ及びデザイン支援プログラム |
CN110866979A (zh) * | 2019-11-14 | 2020-03-06 | 联想(北京)有限公司 | 数据处理方法、装置、计算设备以及介质 |
US20210187765A1 (en) * | 2019-12-18 | 2021-06-24 | L'oreal | Browblade adapter mechanism |
CN111553220A (zh) * | 2020-04-21 | 2020-08-18 | 海信集团有限公司 | 一种智能设备及数据处理方法 |
CN111553221B (zh) * | 2020-04-21 | 2023-10-31 | 海信集团有限公司 | 一种数据处理方法及智能设备 |
US11924588B2 (en) * | 2022-05-19 | 2024-03-05 | Fleek Inc. | System and method for guiding eyebrow shaping with projected light |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004357801A (ja) * | 2003-06-02 | 2004-12-24 | Fuji Photo Film Co Ltd | 化粧用表示装置 |
JP2009213751A (ja) * | 2008-03-12 | 2009-09-24 | Sony Ericsson Mobilecommunications Japan Inc | 化粧評価プログラム、化粧評価方法および化粧評価装置 |
CN102708575A (zh) * | 2012-05-17 | 2012-10-03 | 彭强 | 基于人脸特征区域识别的生活化妆容设计方法及*** |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2341231A (en) | 1998-09-05 | 2000-03-08 | Sharp Kk | Face detection in an image |
AUPS140502A0 (en) * | 2002-03-27 | 2002-05-09 | Seeing Machines Pty Ltd | Method for automatic detection of facial features |
JP4180027B2 (ja) * | 2004-08-27 | 2008-11-12 | 株式会社豊田中央研究所 | 顔部品位置検出装置及び方法並びにプログラム |
US20070047761A1 (en) * | 2005-06-10 | 2007-03-01 | Wasilunas Elizabeth A | Methods Of Analyzing Human Facial Symmetry And Balance To Provide Beauty Advice |
KR101363691B1 (ko) * | 2006-01-17 | 2014-02-14 | 가부시키가이샤 시세이도 | 메이크업 시뮬레이션 시스템, 메이크업 시뮬레이션 장치,메이크업 시뮬레이션 방법 및 메이크업 시뮬레이션프로그램 |
JP5191665B2 (ja) * | 2006-01-17 | 2013-05-08 | 株式会社 資生堂 | メイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラム |
JP4793823B2 (ja) * | 2006-04-26 | 2011-10-12 | 株式会社メガチップス | メークアップアシスト装置および眉毛描画アシスト装置 |
EP1865443A3 (en) | 2006-06-09 | 2010-03-17 | Samsung Electronics Co.,Ltd. | Facial feature detection method and device |
US20090151741A1 (en) * | 2007-12-14 | 2009-06-18 | Diem Ngo | A cosmetic template and method for creating a cosmetic template |
JP4760999B1 (ja) * | 2010-10-29 | 2011-08-31 | オムロン株式会社 | 画像処理装置、画像処理方法、および制御プログラム |
JP5656603B2 (ja) | 2010-12-14 | 2015-01-21 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびそのプログラム |
JP2013158481A (ja) | 2012-02-06 | 2013-08-19 | Seiko Epson Corp | 電子鏡およびそのプログラム |
FR2995411B1 (fr) | 2012-09-07 | 2014-09-19 | Tipheret | Procede et dispositif pour preparer une monture de lunettes |
GB2525516B (en) * | 2012-11-14 | 2020-04-22 | Weiss Golan | Biometric methods and systems for enrollment and authentication |
WO2014161189A1 (en) | 2013-04-03 | 2014-10-09 | Nokia Corporation | An apparatus and associated methods |
JP5863930B2 (ja) * | 2014-11-14 | 2016-02-17 | レノボ・イノベーションズ・リミテッド(香港) | 化粧支援装置、化粧支援方法、及びプログラム |
US10292483B2 (en) * | 2017-03-21 | 2019-05-21 | Nisan Shlomov | Eyebrow shaping method |
-
2017
- 2017-09-28 CN CN201710896760.9A patent/CN109583261A/zh active Pending
-
2018
- 2018-01-14 US US15/870,984 patent/US10521648B2/en not_active Expired - Fee Related
- 2018-01-15 KR KR1020180005061A patent/KR102045218B1/ko active IP Right Grant
- 2018-01-18 JP JP2018006441A patent/JP6761824B2/ja not_active Expired - Fee Related
- 2018-03-14 EP EP18161754.9A patent/EP3462376B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004357801A (ja) * | 2003-06-02 | 2004-12-24 | Fuji Photo Film Co Ltd | 化粧用表示装置 |
JP2009213751A (ja) * | 2008-03-12 | 2009-09-24 | Sony Ericsson Mobilecommunications Japan Inc | 化粧評価プログラム、化粧評価方法および化粧評価装置 |
CN102708575A (zh) * | 2012-05-17 | 2012-10-03 | 彭强 | 基于人脸特征区域识别的生活化妆容设计方法及*** |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114554097A (zh) * | 2022-02-28 | 2022-05-27 | 维沃移动通信有限公司 | 显示方法、显示装置、电子设备和可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP2019063479A (ja) | 2019-04-25 |
KR102045218B1 (ko) | 2019-11-15 |
KR20190037050A (ko) | 2019-04-05 |
US20190095696A1 (en) | 2019-03-28 |
EP3462376A1 (en) | 2019-04-03 |
JP6761824B2 (ja) | 2020-09-30 |
US10521648B2 (en) | 2019-12-31 |
EP3462376B1 (en) | 2020-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109583261A (zh) | 身体信息分析装置及其辅助比对眉型方法 | |
TWI751161B (zh) | 終端設備、智慧型手機、基於臉部識別的認證方法和系統 | |
CN109583263A (zh) | 结合扩增实境的身体信息分析装置及其眉型预览方法 | |
JP6547013B2 (ja) | 生体情報解析装置及びその頬紅解析方法 | |
JP6799525B2 (ja) | 生体情報解析装置及び手肌解析方法 | |
CN109427075A (zh) | 身体信息分析装置及其眼影分析方法 | |
CN105302295B (zh) | 一种具有3d摄像组件的虚拟现实交互设备 | |
WO2021047069A1 (zh) | 人脸识别方法和电子终端设备 | |
CN105302294B (zh) | 一种交互式虚拟现实演示装置 | |
KR102045228B1 (ko) | 신체 정보 분석 장치 및 얼굴형 모의 방법 | |
CN109427078A (zh) | 身体信息分析装置及其唇妆分析方法 | |
CN108875468A (zh) | 活体检测方法、活体检测***以及存储介质 | |
US20220405946A1 (en) | Inferring user pose using optical data | |
CN109299636A (zh) | 可标示腮红区域的身体信息分析装置 | |
JP2019053707A (ja) | 生体情報解析装置及びその基礎化粧解析方法 | |
KR20190032156A (ko) | 신체 정보 분석 장치 및 얼굴형 검측 방법 | |
CN109288233A (zh) | 可标示修容区域的身体信息分析装置 | |
TWI722705B (zh) | 臉部肌肉特徵點自動標記方法 | |
WO2022266515A1 (en) | Inferring user pose using optical data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190405 |
|
WD01 | Invention patent application deemed withdrawn after publication |