CN111651040A - 用于肌肤检测的电子设备的交互方法及电子设备 - Google Patents
用于肌肤检测的电子设备的交互方法及电子设备 Download PDFInfo
- Publication number
- CN111651040A CN111651040A CN202010459215.5A CN202010459215A CN111651040A CN 111651040 A CN111651040 A CN 111651040A CN 202010459215 A CN202010459215 A CN 202010459215A CN 111651040 A CN111651040 A CN 111651040A
- Authority
- CN
- China
- Prior art keywords
- user
- face
- finger
- detection target
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72448—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
- H04M1/72454—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/52—Details of telephonic subscriber devices including functional features of a camera
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Environmental & Geological Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Neurology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请提供一种用于肌肤检测的电子设备的交互方法及电子设备,该方法通过对用户的手部动作和面部的识别,确定目标手部动作,并基于该目标手部动作确定用户的手部动作针对的检测目标,电子设备基于所述检测目标及检测目标的形态,从扩展内容库中确定与该检测目标及检测目标的形态关联的扩展内容,并输出所述扩展内容。根据本申请实施例的用于肌肤检测的电子设备的交互方法及电子设备,能够通过用户在护肤或化妆过程中的实时图像,准确识别出用户的手势以及该手势表明的意图,给出该手势对应的皮肤状态信息及皮肤护理或化妆的处理建议。使得交互过程更加自然流畅,提升用户的体验。
Description
技术领域
本申请涉及软件应用技术领域,尤其涉及用于肌肤检测的电子设备的交互方法及电子设备。
背景技术
目前,市场上已存在部分基于图像技术进行皮肤检测的产品,这些产品通过对用户的图像检测分析用户的皮肤状态,可以为客户提供较好的体验,但现有的肌肤检测产品需要对获取的图像的整体的皮肤进行全面检测,在得到检测结果后,用户需要进入指定的功能页面去观看分析结果,如,用户想要观看肤色,则点击肤色的功能选项,进入肤色分析页,以观看肤色结果。这种产品需要客户多次单机操作,操作麻烦,部分现有产品还需要额外的硬件配件,例如美容检测仪,操作硬件配件时有可能接触皮肤问题区域,造成细菌传播,交叉感染,现有产品的另一种应用中,需要用户手动去选择护肤化妆产品或化妆手法,化妆过程中,用户双手并不方便触摸屏幕进行选择操作。
发明内容
有鉴于此,本申请提供一种用于肌肤检测的电子设备的交互方法及电子设备,能够通过用户在护肤或化妆过程中的实时图像,准确识别出用户的手势以及该手势表明的意图,给出该手势对应的皮肤状态信息及皮肤护理或化妆的处理建议。使得交互过程更加自然流畅,提升用户的体验。
本申请的一些实施方式提供了一种用于肌肤检测的电子设备的交互方法。以下从多个方面介绍本申请,以下多个方面的实施方式和有益效果可互相参考。
第一方面,本申请提供一种用于肌肤检测的电子设备的交互方法,应用于电子设备,该方法包括:获取同时包括用户的面部和手部的多个视频帧,如,用户的实时图像;识别多个视频帧中的用户的手部相对于面部的动作,并确定目标手部动作;响应于目标手部动作,确定视频帧中的用户的面部上至少部分区域中的检测目标,其中检测目标可以包括痘痘、细纹、毛孔、黑头、痤疮、斑块、红血丝、鼻子、嘴巴、眼睛、眉毛、脸部轮廓和皮肤颜色等中的一种或多种。基于检测目标及检测目标的形态,如,眉毛的形态为弯月形、八字形等,从扩展内容库中确定与该检测目标及检测目标的形态关联的扩展内容,并输出扩展内容,扩展内容可以包括:基于护肤状态时的检测目标的问题分析和护理建议中的一种或多种,或者,基于化妆状态时的检测目标的化妆状态分析和化妆建议中的一种或多种。本申请实施例,能够通过用户在护肤或化妆过程中的实时图像,准确识别出用户的手势以及该手势表明的意图,给出该手势对应的皮肤状态信息及皮肤护理或化妆的处理建议。使得用户与设备的交互过程更加自然流畅,提升用户的体验。
在上述第一方面的一种可能的实现中,确定目标手部动作,包括:电子设备确定视频帧中的手指的指尖所在位置距离面部所在位置小于预设距离,则确定手部动作为目标手部动作。通过确定手指与面部的距离的设定作为目标动作,可以避免一些不必要的手势的错误的识别,而将误判用户的意图。
在上述第一方面的一种可能的实现中,确定目标手部动作,包括:确定视频帧中的手指的指尖所在位置距离面部所在位置小于预设距离,并且确定视频帧中手指相对于面部相对静止持续的时间大于预设时间,则确定手部动作为目标手部动作。进一步提高基于手势判断用户意图的准确性。
在上述第一方面的一种可能的实现中,确定目标手部动作,包括:确定视频中包括两只手;并且确定视频帧中的两只手的手指的指尖所在位置距离面部所在位置小于预设距离,并且确定视频帧中两只手的手指相对于面部相对静止持续的时间大于预设时间,则确定手部动作为目标手部动作。
在上述第一方面的一种可能的实现中,当手指相对于面部的相对运动的幅度小于预设值时,确定视频帧中两只手的手指相对于面部相对静止。可以提高手势判断的准确性。
在上述第一方面的一种可能的实现中,电子设备确定视频帧中的手指所在位置距离面部所在位置小于预设距离,包括:视频帧中的用户的手指所在位置区域面部所在位置区域重叠,或者,视频帧中的手指与面部不重叠,但所属手指的指尖与面部距离手指指尖最近的边沿点之间的距离小于预设距离。
在上述第一方面的一种可能的实现中,电子设备响应于目标手部动作,确定视频帧中的用户的面部上至少部分区域中的检测目标,包括:从多个视频帧中的至少一个视频帧中,确定目标手部动作中的手指指向区域与面部所在区域的交集区域,并确定交集区域内的检测目标。通过确定交集区域的检查目标,用户可以直接通过手指的指向找到检测目标,便于用户直观的自然的感受,提升用户的交互体验。
在上述第一方面的一种可能的实现中,手指的指向区域为以手指的指尖为基准点,手指的指向为基准方向确定的几何图形,并且几何图形具有用户预先设定的大小和轮廓。
在上述第一方面的一种可能的实现中,当确定视频中包括两只手;手指的指向区域为以手指的指尖为基准点,手指的指向为基准方向确定的几何图形,其中几何图形是用户预先设定的几何图形。两只手的手指的指向区域的交集或并集作为手指的指向区域。
在上述第一方面的一种可能的实现中,几何图形包括梯形、扇形、三角形、圆形、方形中的任一种。
在上述第一方面的一种可能的实现中,面部包括至少一个预设的ROI区域;电子设备响应于目标手部动作,确定视频帧中的用户的面部上至少部分区域中的检测目标,进一步包括:从多个视频帧中的至少一个视频帧中,确定目标手部动作中的手指指向区域与面部中包括的ROI区域的交集区域,并确定交集区域内的检测目标。其中,ROI区域可分为额头、鼻梁、人中、下巴、双颊、眼下、苹果肌等。通过在手指指向与用户脸部的ROI区域的交集区域确定检测目标,以便于在结合脸部的ROI区域,对用户的指定的区域进行分析,提高电子设备对检测目标分析的准确,以及提高交互的趣味性。
在上述第一方面的一种可能的实现中,当确定交集区域内覆盖两个以上ROI区域时,从交集区域内的面积最大的ROI区域内确定检测目标。
在上述第一方面的一种可能的实现中,当确定交集区域内覆盖两个以上ROI区域时,基于ROI区域的预设优先级和/或ROI区域的检测目标与检测目标对应的特征标准模型的匹配度,选择其中一个ROI区域,并从选择的ROI区域内确定检测目标。
在上述第一方面的一种可能的实现中,当确定交集区域内覆盖两个以上ROI区域时,进一步包括:电子设备基于用户对ROI区域内的检测目标的第一操作,确定检测目标。用户可以根据自己观察的结果直接通过点击等方式确认检测目标,便于用户根据自己的主观意见选择,提高用户的交互体验。
在上述第一方面的一种可能的实现中,检测目标包括痘痘、细纹、毛孔、黑头、痤疮、斑块和红血丝中的一种或多种皮肤状态,或者,检测目标包括鼻子、嘴巴、眼睛、眉毛、脸部轮廓、皮肤颜色中的一种或多种。
在上述第一方面的一种可能的实现中,多个视频帧是预设时长内连续的多个视频帧。
在上述第一方面的一种可能的实现中,该方法还包括:电子设备通过电子设备的摄像头获取用户的实时影像,并在第一界面显示用户的实时影像,以及从实时影像中获取同时具有用户的面部和手部的设定时长内的视频帧。用户可以一边观看自己的面部情况,一边作出手部动作,操作更加直观、便于操作。
在上述第一方面的一种可能的实现中,获取同时包括用户的面部和手部的多个视频帧之前,还包括:电子设备响应于用户的输入操作,确定执行化妆模式或执行护肤模式。也就是说,用户可以首先确认自己是要化妆或者是护肤,电子设备确认用户指定的状态后,以便于电子设备根据用户的手势给出针对性的化妆或护肤的建议。
在上述第一方面的一种可能的实现中,电子设备输出扩展内容,包括:电子设备显示第二界面,第二界面中包括基于目标手部动作确定的检测目标及检测目标的形态对应的扩展内容;或者,电子设备语音播报基于目标手部动作确定的检测目标及检测目标的形态对应的扩展内容。该展示方式,更加直观,便于用户给出的护肤或化妆的建议。
在上述第一方面的一种可能的实现中,扩展内容包括:基于护肤状态时的检测目标的问题分析和护理建议中的一种或多种,或者,基于化妆状态时的检测目标的化妆状态分析和化妆建议中的一种或多种。
第二方面,本申请还提供一种用于肌肤检测的装置,该装置包括:获取模块,用于获取同时包括用户的面部和手部的多个视频帧,如,用户的实时图像;处理模块,通过识别模块识别多个视频帧中的用户的手部相对于面部的动作,并确定目标手部动作;处理模块,响应于目标手部动作,确定视频帧中的用户的面部上至少部分区域中的检测目标,其中检测目标可以包括痘痘、细纹、毛孔、黑头、痤疮、斑块、红血丝、鼻子、嘴巴、眼睛、眉毛、脸部轮廓和皮肤颜色等中的一种或多种。处理模块,基于检测目标及检测目标的形态,如,眉毛的形态为弯月形、八字形等,从扩展内容库中确定与该检测目标及检测目标的形态关联的扩展内容,并输出扩展内容,扩展内容可以包括:基于护肤状态时的检测目标的问题分析和护理建议中的一种或多种,或者,基于化妆状态时的检测目标的化妆状态分析和化妆建议中的一种或多种。本申请实施例,能够通过用户在护肤或化妆过程中的实时图像,准确识别出用户的手势以及该手势表明的意图,给出该手势对应的皮肤状态信息及皮肤护理或化妆的处理建议。使得用户与设备的交互过程更加自然流畅,提升用户的体验。
在上述第二方面的一种可能的实现中,确定目标手部动作,包括:处理模块确定视频帧中的手指的指尖所在位置距离面部所在位置小于预设距离,则确定手部动作为目标手部动作。通过确定手指与面部的距离的设定作为目标动作,可以避免一些不必要的手势的错误的识别,而将误判用户的意图。
在上述第二方面的一种可能的实现中,确定目标手部动作,包括:处理模块确定视频帧中的手指的指尖所在位置距离面部所在位置小于预设距离,并且确定视频帧中手指相对于面部相对静止持续的时间大于预设时间,则确定手部动作为目标手部动作。进一步提高基于手势判断用户意图的准确性。
在上述第二方面的一种可能的实现中,确定目标手部动作,包括:处理模块确定视频中包括两只手;并且确定视频帧中的两只手的手指的指尖所在位置距离面部所在位置小于预设距离,并且确定视频帧中两只手的手指相对于面部相对静止持续的时间大于预设时间,则确定手部动作为目标手部动作。
在上述第二方面的一种可能的实现中,当手指相对于面部的相对运动的幅度小于预设值时,处理模块确定视频帧中两只手的手指相对于面部相对静止。可以提高手势判断的准确性。
在上述第二方面的一种可能的实现中,处理模块确定视频帧中的手指所在位置距离面部所在位置小于预设距离,包括:视频帧中的用户的手指所在位置区域面部所在位置区域重叠,或者,视频帧中的手指与面部不重叠,但所属手指的指尖与面部距离手指指尖最近的边沿点之间的距离小于预设距离。
在上述第二方面的一种可能的实现中,处理模块响应于目标手部动作,确定视频帧中的用户的面部上至少部分区域中的检测目标,包括:从多个视频帧中的至少一个视频帧中,确定目标手部动作中的手指指向区域与面部所在区域的交集区域,并确定交集区域内的检测目标。通过确定交集区域的检查目标,用户可以直接通过手指的指向找到检测目标,便于用户直观的自然的感受,提升用户的交互体验。
在上述第二方面的一种可能的实现中,,手指的指向区域为以手指的指尖为基准点,手指的指向为基准方向确定的几何图形,并且几何图形具有用户预先设定的大小和轮廓。
在上述第二方面的一种可能的实现中,当确定视频中包括两只手;手指的指向区域为以手指的指尖为基准点,手指的指向为基准方向确定的几何图形,其中几何图形是用户预先设定的几何图形。两只手的手指的指向区域的交集或并集作为手指的指向区域。
在上述第二方面的一种可能的实现中,几何图形包括梯形、扇形、三角形、圆形、方形中的任一种。
在上述第二方面的一种可能的实现中,面部包括至少一个预设的ROI区域;处理模块响应于目标手部动作,确定视频帧中的用户的面部上至少部分区域中的检测目标,进一步包括:从多个视频帧中的至少一个视频帧中,确定目标手部动作中的手指指向区域与面部中包括的ROI区域的交集区域,并确定交集区域内的检测目标。其中,ROI区域可分为额头、鼻梁、人中、下巴、双颊、眼下、苹果肌等。通过在手指指向与用户脸部的ROI区域的交集区域确定检测目标,以便于在结合脸部的ROI区域,对用户的指定的区域进行分析,提高电子设备对检测目标分析的准确,以及提高交互的趣味性。
在上述第二方面的一种可能的实现中,当确定交集区域内覆盖两个以上ROI区域时,从交集区域内的面积最大的ROI区域内确定检测目标。
在上述第二方面的一种可能的实现中,当确定交集区域内覆盖两个以上ROI区域时,基于ROI区域的预设优先级和/或ROI区域的检测目标与检测目标对应的特征标准模型的匹配度,选择其中一个ROI区域,并从选择的ROI区域内确定检测目标。
在上述第二方面的一种可能的实现中,当确定交集区域内覆盖两个以上ROI区域时,进一步包括:电子设备基于用户对ROI区域内的检测目标的第一操作,确定检测目标。用户可以根据自己观察的结果直接通过点击等方式确认检测目标,便于用户根据自己的主观意见选择,提高用户的交互体验。
在上述第二方面的一种可能的实现中,检测目标包括痘痘、细纹、毛孔、黑头、痤疮、斑块和红血丝中的一种或多种皮肤状态,或者,检测目标包括鼻子、嘴巴、眼睛、眉毛、脸部轮廓、皮肤颜色中的一种或多种。
在上述第二方面的一种可能的实现中,多个视频帧是预设时长内连续的多个视频帧。
在上述第二方面的一种可能的实现中,该装置还包括:处理模块通过获取模块获取用户的实时影像,并在显示模块的第一界面显示用户的实时影像,以及从实时影像中获取同时具有用户的面部和手部的设定时长内的视频帧。用户可以一边观看自己的面部情况,一边作出手部动作,操作更加直观、便于操作。
在上述第二方面的一种可能的实现中,获取同时包括用户的面部和手部的多个视频帧之前,还包括:处理模块响应于用户的输入操作,确定执行化妆模式或执行护肤模式。也就是说,用户可以首先确认自己是要化妆或者是护肤,电子设备确认用户指定的状态后,以便于电子设备根据用户的手势给出针对性的化妆或护肤的建议。
在上述第二方面的一种可能的实现中,处理模块输出扩展内容,包括:通过显示模块显示第二界面,第二界面中包括基于目标手部动作确定的检测目标及检测目标的形态对应的扩展内容;或者,电子设备语音播报基于目标手部动作确定的检测目标及检测目标的形态对应的扩展内容。该展示方式,更加直观,便于用户给出的护肤或或化妆的建议。
在上述第二方面的一种可能的实现中,扩展内容包括:基于护肤状态时的检测目标的问题分析和护理建议中的一种或多种,或者,基于化妆状态时的检测目标的化妆状态分析和化妆建议中的一种或多种。
第三方面,本申请实施例还提供了一种电子设备,包含一个或多个存储器,与存储器耦合的一个或多个处理器,以及一个或多个程序,其中一个或多个程序被存储在存储器中,电子设备用于执行上述第一方面实施例的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器运行时,使得处理器执行上述第一方面实施例的方法。
第五方面,本申请实施例提供了一种包含指令的计算机程序产品,当该计算机程序产品在电子设备上运行时,使得处理器执行上述第一方面实施例的方法。
附图说明
图1为本申请一个实施例的用户使用手机的交互的场景图;
图2a为本申请一个实施例的用户使用手机的交互的场景图;
图2b为本申请一个实施例的用户单手指向面部区域的多个场景图;
图2c为本申请一个实施例的用户双手指向面部区域的多个场景图;
图3为本申请一个实施例的手机的结构示意图;
图4为本申请一个实施例的手机100的软件结构框图;
图5为本申请一个实施例用于肌肤检测的电子设备的交互方法的流程图;
图6a为本申请一个实施例的用户选择模式的用户界面示意图;
图6b为本申请一个实施例的用户在化妆模式下的实时影像的用户界面示意图;
图6c为本申请一个实施例的单手手指的指尖与面部区域的位置关系示意图;
图6d为本申请一个实施例的单手手指的指尖与面部区域的位置关系示意图;
图7a为本申请一个实施例的单手手指的指向区域与面部的交集区域的示意图;
图7b为本申请一个实施例的双手手指的指向区域与面部的交集区域的示意图;
图8a为本申请一个实施例的人脸ROI区域划分的示意图;
图8b为本申请一个实施例的交集区域内覆盖多个ROI区域的示意图;
图8c为本申请一个实施例的手机的用户界面示意图;
图9a为本申请一个实施例的手机的用户界面示意图;
图9b为本申请一个实施例的痘痘的检测结果的用户界面示意图;
图9c为本申请一个实施例的眉毛的检测结果的用户界面示意图;
图10a为本申请一个实施例的痘痘分级图像及对应的描述语料的示意图;
图10b为本申请一个实施例的色斑类型的图像及对应的描述语料的示意图;
图10c为本申请一个实施例的红区图像及红区问题的描述语料的示意图;
图10d为本申请一个实施例的不同脸型对应的眉形的化妆的描述语料的示意图;
图10e为本申请一些实施例的虚拟的化妆后的用户的脸部图像的界面示意图;
图11为本申请一个实施例的电子设备的结构示意图;
图12为本申请一个实施例的设备的框图;
图13为本申请一实施例的SoC的框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。
在本申请各实施例中,电子设备可以是手机、笔记本电脑、平板电脑、桌上型电脑、膝上型电脑、超级移动个人计算机(Ultra-mobile Personal Computer,UMPC)、手持计算机、上网本、个人数字助理(Personal Digital Assistant,PDA)、可穿戴电子设备、智能镜子等具有图像识别功能的设备。
下面以用户与手机的交互为例,结合具体的场景对本申请实施例进行说明。
图1和图2a示出了用户使用手机的交互的场景图,在该场景中用户想要通过与手机的交互实现护肤的效果,参考图1,该手机10设有前置摄像头11与屏幕12在同侧,通过摄像头11可以通过摄像头实时拍摄视频流或照片,拍摄的视频流实时在屏幕12上显示,用户可以通过屏幕12实时观察自己的手部动作和面部图像。参考图2a,用户用手指向自己面部的含有检测目标(图像特征)的面部区域,如指向含有痘痘的面部区域等,手机10获取预设时长的视频帧,并从该视频帧中识别出手指与脸部间的距离,以及保持这一距离维持的时间,进而确定用户是否想要依据该手部的动作了解护肤的状态。当确定该手部动作为目标手部动作,即该手部动作被确定为用户输入的想要护肤的动作指令,手机10进一步获取该目标手部动作对应的至少一张视频帧,并从该视频帧中的手指的指向区域与面部的交集区域内识别出图像特征,进而根据该图像特征输出对应的扩展内容。
在本申请的实施例中,检测目标可以包括从用户的视频帧中识别出的肤色、痘痘、细纹、毛孔、黑头、痤疮、斑块、红血丝、鼻子、眼睛、眉毛、嘴巴、下巴和额头等图像特征中的一种或多种。并且基于检测目标可以确定检测目标的形态,如眉毛形态、鼻子形态、嘴巴形状、下巴形状、额头形状和脸部轮廓等图像特征中的一种或多种。
在本申请的实施例中,手指的指向区域是指由电子设备以手指的指尖为基准点,手指的指向为基准方向确定的几何图形,该几何图形具有设定的大小和轮廓,其可以是用户预先设定,也可以是由电子设备预先存储的。该几何图形可以包括:梯形、扇形、三角形、圆形、方形中的任一种几何图形。在具体实现中,用户可根据实际情况自由定义大小和轮廓。
在本申请的实施例中,扩展内容可以包括基于护肤状态时的检测目标的状态分析和护理建议中的一种或多种,或者,基于化妆状态时的检测目标的化妆状态分析和化妆建议中的一种或多种。其可以存储在扩展内容库中,该扩展内容库可以存储在云端服务器中,电子设备与云端服务器进行通信,在电子设备需要扩展内容时可以从云端服务器中获取相应的内容。该扩展内容可以在云服务器端定期的更新,以向用户提供最前沿的化妆和护肤的知识点。在本申请的其他实施例中,扩展内容也可以直接存储在电子设备中,以便于电子设备随时调用。
在本申请的实施例中,用户的手部动作可以包括单手的手指指向检测目标所在的面部区域,参考图2b,图2b示出了用户单手指向面部区域的多个场景图。该场景中包括用户通过单手的手指指向面部的痘痘、指向色斑、指向皱纹及指向鼻子等手部动作。也可以包括双手的手指指向检测目标所在的面部区域,参考图2c,图2c示出了用户双手手指指向面部区域的多个场景图。如图2c所示,该场景包括用户通过双手指指向面部的痘痘、指向色斑、指向皱纹或指向眉毛等手部动作。本申请的手指指向面部区域仅是示例性的说明,本申请还可以指向其他的部位,如嘴巴、下巴的、指向红区、黑头等,在此并不作为限定。
根据本申请的实施例,手机可以通过用户的手部动作直接了解用户的意图,不需要对用户的整张图像进行检测,仅对用户指定的区域进行检测,用户在照镜子的状态下,通过手指指向面部的某个区域,就可以得到该区域内的图像特征相关的相关知识点,如,在护肤时,获取皮肤状态,如痘痘,级别和护理建议等。在化妆时,可以获取化妆的建议等。使得交互过程更加简单、顺畅、自然。
下面将结合附图介绍本申请以下实施例中提供的示例性手机。
图3示出了手机的结构示意图。该手机100可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接头130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194,以及用户标识模块(subscriberidentification module,SIM)卡接口195等。其中传感器模块180可以包括压力传感器180A,陀螺仪传感器180B,气压传感器180C,磁传感器180D,加速度传感器180E,距离传感器180F,接近光传感器180G,指纹传感器180H,温度传感器180J,触摸传感器180K,环境光传感器180L,骨传导传感器180M等。
可以理解的是,本申请实施例示意的结构并不构成对手机100的具体限定。在本申请另一些实施例中,手机100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
处理器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了***的效率。
在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口。
可以理解的是,本申请实施例示意的各模块间的接口,只是示意性说明,并不构成对手机100的结构限定。在本申请另一些实施例中,手机100也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
USB接头130是一种符合USB标准规范的连接器,可以用来连接手机100和***设备,具体可以是标准USB接头(例如Type C接头),Mini USB接头,Micro USB接头等。USB接头130可以用于连接充电器为手机100充电,也可以用于手机100与***设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接头还可以用于连接其他手机,例如AR设备等。在一些实施方案中,处理器110可以支持通用串行总线(Universal Serial Bus),通用串行总线的标准规范可以为USB1.x,USB2.0,USB3.x,USB4。
充电管理模块140用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。在一些有线充电的实施例中,充电管理模块140可以通过USB接头130接收有线充电器的充电输入。在一些无线充电的实施例中,充电管理模块140可以通过手机100的无线充电线圈接收无线充电输入。充电管理模块140为电池142充电的同时,还可以通过电源管理模块141为手机供电。
电源管理模块141用于连接电池142,充电管理模块140与处理器110。电源管理模块141接收电池142和/或充电管理模块140的输入,为处理器110,内部存储器121,显示屏194,摄像头193,和无线通信模块160等供电。电源管理模块141还可以用于监测电池容量,电池循环次数,电池健康状态(漏电,阻抗)等参数。在其他一些实施例中,电源管理模块141也可以设置于处理器110中。在另一些实施例中,电源管理模块141和充电管理模块140也可以设置于同一个器件中。
手机100的无线通信功能可以通过天线1,天线2,移动通信模块150,无线通信模块160,调制解调处理器以及基带处理器等实现。
天线1和天线2用于发射和接收电磁波信号。手机100中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
移动通信模块150可以提供应用在手机100上的包括2G/3G/4G/5G等无线通信的解决方案。移动通信模块150可以包括至少一个滤波器,开关,功率放大器,低噪声放大器(lownoise amplifier,LNA)等。移动通信模块150可以由天线1接收电磁波,并对接收的电磁波进行滤波,放大等处理,传送至调制解调处理器进行解调。移动通信模块150还可以对经调制解调处理器调制后的信号放大,经天线1转为电磁波辐射出去。在一些实施例中,移动通信模块150的至少部分功能模块可以被设置于处理器110中。在一些实施例中,移动通信模块150的至少部分功能模块可以与处理器110的至少部分模块被设置在同一个器件中。
在一个实施例中,移动通信模块150可以与云端服务器通信连接,以使得处理器110从云端服务器获取与图像特征对应的扩展内容,如,基于护肤状态时的所述检测目标的问题分析和护理建议中的一种或多种,或者,基于化妆状态时的所述检测目标的化妆状态分析和化妆建议中的一种或多种等知识点。
调制解调处理器可以包括调制器和解调器。其中,调制器用于将待发送的低频基带信号调制成中高频信号。解调器用于将接收的电磁波信号解调为低频基带信号。随后解调器将解调得到的低频基带信号传送至基带处理器处理。低频基带信号经基带处理器处理后,被传递给应用处理器。应用处理器通过音频设备(不限于扬声器170A,受话器170B等)输出声音信号,或通过显示屏194显示图像或视频。在一些实施例中,调制解调处理器可以是独立的器件。在另一些实施例中,调制解调处理器可以独立于处理器110,与移动通信模块150或其他功能模块设置在同一个器件中。
无线通信模块160可以提供应用在手机100上的包括无线局域网(wireless localarea networks,WLAN)(如无线保真(wireless fidelity,Wi-Fi)网络),蓝牙(bluetooth,BT),全球导航卫星***(global navigation satellite system,GNSS),调频(frequencymodulation,FM),近距离无线通信技术(near field communication,NFC),红外技术(infrared,IR)等无线通信的解决方案。无线通信模块160可以是集成至少一个通信处理模块的一个或多个器件。无线通信模块160经由天线2接收电磁波,将电磁波信号调频以及滤波处理,将处理后的信号发送到处理器110。无线通信模块160还可以从处理器110接收待发送的信号,对其进行调频,放大,经天线2转为电磁波辐射出去。
在一些实施例中,手机100的天线1和移动通信模块150耦合,天线2和无线通信模块160耦合,使得手机100可以通过无线通信技术与网络以及其他设备通信。所述无线通信技术可以包括全球移动通讯***(global system for mobile communications,GSM),通用分组无线服务(general packet radio service,GPRS),码分多址接入(code divisionmultiple access,CDMA),宽带码分多址(wideband code division multiple access,WCDMA),时分码分多址(time-division code division multiple access,TD-SCDMA),长期演进(long term evolution,LTE),BT,GNSS,WLAN,NFC,FM,和/或IR技术等。所述GNSS可以包括全球卫星定位***(global positioning system,GPS),全球导航卫星***(globalnavigation satellite system,GLONASS),北斗卫星导航***(beidou navigationsatellite system,BDS),准天顶卫星***(quasi-zenith satellite system,QZSS)和/或星基增强***(satellite based augmentation systems,SBAS)。
手机100通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏194用于显示图像,视频等。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode的,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed,Micro-oLed,量子点发光二极管(quantum dot lightemitting diodes,QLED)等。在一些实施例中,手机100可以包括1个或N个显示屏194,N为大于1的正整数。
在一个实施例中,显示屏194可以用于显示用户的图像或视频,或者显示文字信息以提醒用户当前需要进行的动作,以使用户按照指示的文字信息面对摄像头作出对应的动作,使得处理器110根据摄像头获取的影像判断用户处于苏醒状态下,并将该状态下的用户的瞳孔信息保存,作为在手机100解锁的过程中用于比对的用户的瞳孔模型,其中,瞳孔信息可以是瞳孔的深度信息(如,3D图像数据),瞳孔模型可以是瞳孔深度模型(人脸3D模型)。也可以在处理器110响应于接收的用户的解锁指令时,显示未解锁时的界面,界面中可以包括人脸输入框,或提示用户解锁的文字信息等。也可以在处理器110在执行解锁操作后,显示用户可以直接操作的界面,或者处理器110在执行禁止解锁操作时,显示解锁失败的界面等。
手机100可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄功能。
ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头193中。
摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,手机100可以包括1个或N个摄像头193,N为大于1的正整数。
在一个实施例中,摄像头193采集同时具有用户的面部、手部动作等视频或静态图像(视频帧),以使手机100能够根据视频中的多个视频帧中确定用户的目标手部动作,以及目标手部动作指定的图像特征,处理器110根据图像特征调取对应的基于护肤状态时的所述检测目标的问题分析和护理建议中的一种或多种,或者,基于化妆状态时的所述检测目标的化妆状态分析和化妆建议中的一种或多种。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当手机100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。手机100可以支持一种或多种视频编解码器。这样,手机100可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
NPU为神经网络(neural-network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU可以实现手机100的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。
在一个实施例中,NPU可以实现手机100对瞳孔信息的识别、指纹的识别、步态识别或者声音识别等生物特征的识别,以使得手机100能够通过各种基于生物特征的识别技术实现对自身进行解锁或禁止解锁。
外部存储器接口120可以用于连接外部存储卡,例如Micro SD卡,实现扩展手机100的存储能力。外部存储卡通过外部存储器接口120与处理器110通信,实现数据存储功能。例如将音乐,视频等文件保存在外部存储卡中。
内部存储器121可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作***,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储手机100使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。处理器110通过运行存储在内部存储器121的指令,和/或存储在设置于处理器中的存储器的指令,执行手机100的各种功能应用以及数据处理。
在一些实施例中,处理器110可以调用内部存储器121中的指令以使得所述手机100依次执行根据本申请的实施例的用于肌肤检测的电子设备的交互方法。该方法具备包括:通过开启摄像头193获取同时包括用户的面部和手部的多个视频帧;处理器110识别所述多个视频帧中的用户的手部相对于所述面部的动作,并确定目标手部动作;处理器110响应于所述目标手部动作,确定所述视频帧中的用户的面部上至少部分区域中的检测目标;处理器110基于所述检测目标及检测目标的形态,从扩展内容库中确定与该检测目标及检测目标的形态关联的扩展内容,并输出所述扩展内容。用户可以通过手部动作直接获取想要了解的知识点,交互过程简单、且更加顺畅。
上述的内部存储器121和/或外部存储区域内可以存储用户的扩展内容,处理器110确认检测目标后,可以直接调取与该检测目标对应的扩展内容,例如,基于护肤状态时的所述检测目标的问题分析和护理建议中的一种或多种,或者,基于化妆状态时的所述检测目标的化妆状态分析和化妆建议中的一种或多种
手机100可以通过音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,以及应用处理器等实现音频功能。例如音乐播放,录音等。
音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。
扬声器170A,也称“喇叭”,用于将音频电信号转换为声音信号。手机100可以通过扬声器170A收听音乐,或收听免提通话。
在一个实施例中,扬声器170A可以播放语音信息以告知用户当前的手部动作对应的检测目标及检测目标的形态对应的扩展内容。以便于用户通过语音了解护肤或化妆的知识点。
接近光传感器180G可以包括例如发光二极管(LED)和光检测器,例如光电二极管。发光二极管可以是红外发光二极管。手机100通过发光二极管向外发射红外光。手机100使用光电二极管检测来自附近物体的红外反射光。当检测到充分的反射光时,可以确定手机100附近有物体。当检测到不充分的反射光时,手机100可以确定手机100附近没有物体。手机100可以利用接近光传感器180G检测用户手持手机100贴近耳朵通话,以便自动熄灭屏幕达到省电的目的。接近光传感器180G也可用于皮套模式,口袋模式自动解锁与锁屏。
在一些实施例中,当有物体(人脸或者手指等)靠近手机100时,接近光传感器180G感应到有物体靠近手机30,从而向手机30的处理器110发出有物体靠近的信号。处理器110接收该有物体靠近的信号,并控制显示屏194亮起,或者直接通过摄像头193采集物体的视频以便于处理器110根据这些视频判断目标手部动作,以及基于目标手部动作确定检测目标。
环境光传感器180L用于感知环境光亮度。手机100可以根据感知的环境光亮度自适应调节显示屏194亮度。环境光传感器180L也可用于拍照时自动调节白平衡。环境光传感器180L还可以与接近光传感器180G配合,检测手机100是否在口袋里,以防误触。
指纹传感器180H用于采集指纹。手机100可以利用采集的指纹特性实现指纹解锁,以实现用户身份识别,并获得相应权限,例如访问应用锁,指纹拍照,指纹接听来电等。
手机100的软件***可以采用分层架构,事件驱动架构,微核架构,微服务架构,或云架构。本申请实施例以分层架构的Android***为例,示例性说明手机100的软件结构。
图4是本申请实施例的手机100的软件结构框图。
分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,将Android***分为四层,从上至下分别为应用程序层,应用程序框架层,安卓运行时(Android runtime)和***库,以及内核层。
应用程序层可以包括一系列应用程序包。
如图4所示,应用程序包可以包括相机,图库,日历,通话,地图,导航,WLAN,蓝牙,音乐,视频,短信息等应用程序。
应用程序框架层为应用程序层的应用程序提供应用编程接口(applicationprogramming interface,API)和编程框架。应用程序框架层包括一些预先定义的函数。
如图4所示,应用程序框架层可以包括窗口管理器,内容提供器,视图***,电话管理器,资源管理器,通知管理器等。
窗口管理器用于管理窗口程序。窗口管理器可以获取显示屏大小,判断是否有状态栏,锁定屏幕,截取屏幕等。
内容提供器用来存放和获取数据,并使这些数据可以被应用程序访问。所述数据可以包括视频,图像,音频,拨打和接听的电话,浏览历史和书签,电话簿等。
视图***包括可视控件,例如显示文字的控件,显示图片的控件等。视图***可用于构建应用程序。显示界面可以由一个或多个视图组成的。例如,包括短信通知图标的显示界面,可以包括显示文字的视图以及显示图片的视图。
电话管理器用于提供手机100的通信功能。例如通话状态的管理(包括接通,挂断等)。
资源管理器为应用程序提供各种资源,比如本地化字符串,图标,图片,布局文件,视频文件等等。
通知管理器使应用程序可以在状态栏中显示通知信息,可以用于传达告知类型的消息,可以短暂停留后自动消失,无需用户交互。比如通知管理器被用于告知下载完成,消息提醒等。通知管理器还可以是以图表或者滚动条文本形式出现在***顶部状态栏的通知,例如后台运行的应用程序的通知,还可以是以对话窗口形式出现在屏幕上的通知。例如在状态栏提示文本信息,发出提示音,手机振动,指示灯闪烁等。
Android Runtime包括核心库和虚拟机。Android runtime负责安卓***的调度和管理。
核心库包含两部分:一部分是java语言需要调用的功能函数,另一部分是安卓的核心库。
应用程序层和应用程序框架层运行在虚拟机中。虚拟机将应用程序层和应用程序框架层的java文件执行为二进制文件。虚拟机用于执行对象生命周期的管理,堆栈管理,线程管理,安全和异常的管理,以及垃圾回收等功能。
***库可以包括多个功能模块。例如:表面管理器(surface manager),媒体库(Media Libraries),三维图形处理库(例如:OpenGL ES),2D图形引擎(例如:SGL)等。
表面管理器用于对显示子***进行管理,并且为多个应用程序提供了2D和3D图层的融合。
媒体库支持多种常用的音频,视频格式回放和录制,以及静态图像文件等。媒体库可以支持多种音视频编码格式,例如:MPEG4,H.264,MP3,AAC,AMR,JPG,PNG等。
三维图形处理库用于实现三维图形绘图,图像渲染,合成,和图层处理等。
2D图形引擎是2D绘图的绘图引擎。
内核层是硬件和软件之间的层。内核层至少包含显示驱动,摄像头驱动,音频驱动,传感器驱动。
下面结合在手机100中进行化妆或护肤的场景,以及图3-图4的图示,示例性说明手机100软件以及硬件的工作流程。
该手机100具有摄像头193,当触摸传感器180K接收到触控操作,相应的硬件中断被发给内核层。内核层将触控操作加工成原始输入事件(包括触摸坐标,触控操作的时间戳等信息)。原始输入事件被存储在内核层。应用程序框架层从内核层获取原始输入事件,识别该原始输入事件所对应的控件,以该触控操作是触摸单击操作,该单击操作所对应的控件为化妆和护肤应用图标的控件为例,护肤/化妆类应用程序调用应用框架层的接口,启动护肤/化妆类应用程序,进而通过调用内核层启动摄像头驱动,通过摄像头193捕获静态用户的面部和手部动作的图像或视频。在应用程序框架层进行图像识别,并确定检测目标,当检测目标确定后,***库调用应用程序框架层的内容提供器以获取与检测目标对应的扩展内容,并调用内核层显示驱动,以使显示屏194显示与扩展内容相关的界面。
下面以具体的实施例来介绍根据本申请的用于肌肤检测的电子设备的交互方法,该方法应用于电子设备,以下将手机作为电子设备,对本申请的用于肌肤检测的电子设备的交互过程进行详细的描述。参考图5,图5示出了根据本申请的用于肌肤检测的电子设备的交互方法的流程图,如图5所示,该交互方法可以包括以下步骤:
步骤S500,手机处理器确定化妆或护肤模式。用户可以根据自身的需要手动选择化妆或者护肤的模式,并在处理器接收到用户选择的模式后,执行步骤510。在根据本申请的实施例中,如上述的处理器确定化妆或护肤模式,以及执行如图5所示的各种处理时,实质上意欲表示的是处理器通过执行存储在手机存储区内的应用程序来执行各种处理。
步骤S510,摄像头获取用户的实时影像。
该实时影像可以通过前置摄像头获取,也可以通过后置摄像头获取,当用户想通过显示屏看到自己的面部时,可以采用前置摄像头,以便于用户可以看到自身的实时影像。
步骤S520,处理器从实时影像中获取同时包括用户的面部和手部的多个视频帧。
多个视频帧可以为5秒内的多个连续的视频帧,处理器通过获取5秒内的多个连续的视频帧,以便于识别出用户的手部动作。其中,面部和手部的识别可以采用现有的识别技术进行识别,本申请中不在详细的介绍。
步骤S530,处理器判断视频帧中的手指的指尖所在位置距离面部所在位置是否小于预设距离,例如,手指的指尖所在位置距离面部所在位置是否小于2cm。其中,手指可以是单手的手指,也可以是双手的手指。当手指的指尖所在位置距离面部所在位置小于2cm,则手机执行步骤540,当大于等于预设距离,则手机执行步骤520。
步骤S540,处理器判断视频帧中手指相对于面部相对静止持续的时间是否大于预设时间。例如,判断视频帧中手指相对于面部相对静止持续的时间是否大于3秒,当大于3秒,则手机执行步骤S550,当小于等于3秒,则步骤S520。
步骤S550,处理器确定该手部动作为目标手部动作。当处理器确定目标手部动作后,将该目标手部动作作为用户输入的指令,以执行步骤S560。
步骤S560,处理器响应于目标手部动作确定检测目标。其中,确定检测目标的具体过程可在下面的实施例中详细说明,具体可参见下面实施例中对步骤S560的详细描述。步骤S570,处理器基于检测目标及检测目标的形态输出与其关联的扩展内容。扩展内容可以包括基于护肤状态时的检测目标的问题分析和护理建议中的一种或多种,或者,基于化妆状态时的检测目标的化妆状态分析和化妆建议中的一种或多种。
在本申请的具体实施方式中,如上述的连续视频帧的长度为5秒,手指的指尖所在位置距离面部所在位置是否小于2cm,手指相对于面部相对静止持续的时间是否大于3秒,这些参数为手机中应用程序在制作时预设的,这里的时间长度和距离的值不限于此,也可以是其他的值,诸如,连续视频帧的长度可以为10秒、20秒等,手指相对于面部相对静止持续的时间是否大于2秒、4秒等,手指的指尖所在位置距离面部所在位置是否小于1cm、3cm等;应用程序也可以允许用户更改该预设时间的长度,或该预设距离的大小。
在本申请的另一个实施例中,上述方法的步骤中处理器也可以不执行步骤S540,也就是说,在步骤S530,当处理器确定手指的指尖所在位置距离面部所在位置小于预设距离2cm后,直接执行步骤550。
根据本申请实施例的用于肌肤检测的电子设备的交互方法,能够通过用户在护肤或化妆过程中的实时图像,准确识别出用户的手势以及该手势表明的意图,给出该手势对应的皮肤状态信息及皮肤护理或化妆的处理建议。使得用户与设备的交互过程更加自然流畅,提升用户的体验。
下面结合附图和手机用户界面的具体实施例对上述步骤S500-S570进行详细的说明。
图5所示的各步骤可以在手机中实施。对于其中的各步骤、确定模式、判断等步骤由手机的处理器通过运行应用程序来执行,获取用户图像等步骤可以是手机摄像头在处理器的指示下执行。
参考图5,在步骤S500,确定化妆或护肤模式。
参考图6a,图6a示出了用户选择模式的用户界面示意图,如6a所示,该用户界面610,包括用户护肤或化妆的选项区611和导航栏612,,选项区611中设有化妆和护肤的选项框,用户可以通过点选我要化妆,使手机进入化妆模式,或通过点选我要护肤进入护肤模式。导航栏612中可以设置有个人中心,返回主页面、搜索等图标,用户通过点选这些图标,进入相应的页面内,例如,通过点选个人中心进入个人的主页面,观察自己的个人信息、历史留存的化妆前后的照片和粉丝情况等。
在步骤S510,获取用户的实时影像。当手机确认步骤S500输入的模式后,通过开启摄像头获取用户的实时图像,并且为了便于用户与手机更好的交互,可以开启前置摄像头对用户的实时图像进行采集,同时将采集的实施图像通过界面进行显示。在本申请的实施例中也可以通过后置摄像头帮助别人或自己采集实时影像。在本申请中以前置摄像头为例进行说明。
参考图6b,以用户选择化妆模式为例,图6示出了用户在化妆模式下的实时影像的用户界面示意图,如图6b所示,该用户界面620包括用户图像显示区621、用户动作提示区622、前置或后置摄像头选项图标623,图像显示区621可以显示用户的实时影像,以便于用户可以及时看到自己的实时图像,提示区622可以提示用户做出对应的动作,如,在化妆时,提示:“请用手指指向您的五官或皮肤”,用户按照提示完成目标动作的确定。前置或后置摄像头选项图标623可以实现用户通过前置摄像头获取实时图像或后置摄像头获取自己或朋友的实施图像等。
在步骤S520,从实时影像中获取同时包括用户的面部和手部的多个视频帧。也就是说,手机通过获取用户的面部和手部的多个视频帧,并从该多个视频中识别用户的手部相对于面部的动作,进而来确定目标手部动作。其中,手部的动作包括单手的手指动作,也可以是双手的手指动作。
下面结合附图以单手的手指为例,对目标手部动作的确定过程进行描述。其中,目标手部动作的确定可以仅由步骤S530直接确定,也可以是步骤S530和步骤S540的结合确定。以下详细说明步骤S530和步骤540的结合确定目标手部动作的过程。
在步骤S530,判断视频帧中的手指的指尖所在位置距离面部所在位置是否小于预设距离。即将指尖所在位置与面部区域所在位置的接触点的距离设为0,则距离大于0时,表明指尖与面部指尖有间距,当距离小于0,则指尖与面部重合。
参考图6c,图6c示出了单手手指的指尖与面部区域的位置关系示意图,如图6c所示,用户的单手手指的指尖601与面部区域602重合,则手机处理器可以判断指尖601所在位置距离面部区域所在位置小于预设距离。或者,如图6d所示,用户的单手手指的指尖603距离面部区域602的距离为d,当距离d小于预设距离时,则手机处理器可以判断指尖601所在位置距离面部区域所在位置小于预设距离。其中,预设距离d是指手指的指尖与面部区域在几何测量出的最短距离,在实际应用中,预设距离d可以依据用户的身高、面部大小、手指长短等个人情况做动态调整,灵活设置。例如,当电子设备获取用户的目标图像显示用户脸型较小,在实际应用中,可以将预设距离d设置为符合脸型较小的预设距离,如2cm,略小于默认设置的3cm,在用户的手指指向面部区域时,当手指的指尖与面部区域的距离d小于或等于2cm时,即判断指尖所在位置距离面部区域所在位置小于预设距离。
本身的另一个实施例中,当手指为用户的双手手指时,其每只手的手指均满足上述单手的手指与面部的位置关系,其中,双手中的每只手的手指判断方法与上述单只手的手指判断方法相同,具体可以参考图6c和图6d中的单手的手指与面部位置关系的判断,在此不再赘述。
此外,本申请的另一个实施例中,当处理器识别出手指为用户的双手手指时,且仅一只手的手指满足指尖所在位置距离面部区域所在位置小于预设距离,则可以执行单根手指的判断方法。
基于上面的描述,当手机处理器判断视频帧中的手指的指尖所在位置距离面部所在位置小于预设距离。进一步执行步骤S540。
在步骤S540,判断视频帧中手指相对于面部相对静止持续的时间是否大于预设时间。
具体地,可以包括以下任一种判断条件:
条件a1.当手指相对手机屏幕静止时,处理器判断用户的面部区域相对手机屏幕保持相对静止,即在预设时间内,面部相对手机屏幕的移动幅度小于预设值,例如3s内,面部区域相对手机屏幕的移动幅度小于1cm。其中,预设时间和预设值可以在实际应用中,依据场景,灵活设置,以达到最佳判断结果。
条件a2.当面部相对手机屏幕静止时,处理器判断用户的手指相对手机屏幕保持相对静止,即在预设时间内,手部动作相对手机屏幕的移动幅度小于预设值,例如3s内,手部动作移动幅度小于1cm,其中,预设时间和预设距离可以在实际应用中,依据场景,灵活设置,以达到最佳判断结果。
条件a3.处理器判断手指和面部同时相对手机屏幕保持相对静止。即在预设时间内,面部和手部相对于手机屏幕的移动幅度小于预设值,例如3s内,面部和手部相对手机屏幕的移动幅度小于1cm。其中,预设时间和预设值可以在实际应用中,依据场景,灵活设置,以达到最佳判断结果。
当处理器判断手指和面部满足a1、a2和a3中的任一个条件时,则可以判断用户手指与面部相对静止的时长满足预设时间3秒。则确定该手指的动作为目标手部动作。
在本申请的一个实施例中,目标手部动作的确定,还可以包括:当手部与面部满足上述a1、a2和a3中的任一种条件后,进一步包括:
条件a4,判断用户手指的指向区域与面部区域内的交集区域内是否关联有扩展内容,即是否存在护肤或化妆的知识点,当手机处理器判断交集区域内存在扩展内容,则确定手指的动作为目标手部动作。其中,手指的指向区域可以为以手指的指尖为基准点,手指的指向为基准方向确定的几何图形,其中几何图形是用户预先设定的几何图形。几何图形可以包括梯形、扇形、三角形、圆形、方形中的任一种几何图形。在具体实现中,用户可根据实际情况自由定义大小和轮廓。
当为单手手指时,参考图7a,图7a示出了单手手指的指向区域与面部的交集区域的示意图。如图7a所示,用户的单手手指的指向区域701为梯形,即该指向区域与面部的交集区域即为该梯形覆盖的区域。若该交集区域内关联有扩展内容,则处理器判断该手部的动作为目标手部动作。
当为双手手指时,参考图7b,图7b示出了双手手指的指向区域与面部的交集区域的示意图。如图7b所示,用户的双手的每只手的手指的指向区域702为梯形,两个手指的指向区域交集在一起,此时可以将两只手的手指的指向区域702的交集或并集作为手指的指向区域。且该交集或并集区域内联有扩展内容,则处理器判断该手部的动作为目标手部动作。
需要说明的是,在本申请描述的实施例中,当没有条件a4的判断步骤时,可以默认为整张面部所在区域均关联有扩展内容。而手指的指向区域与面部区域的交集区域的确定可以参考图7a和图7b对应的描述。
基于上面的描述,手机处理器可以确定目标手部动作,并执行步骤S560。
在步骤S560,响应于该目标手部动作确定检测目标。根据检测目标进一步的可以确定检测目标的形态。其中,检测目标为视频帧中的用户的面部上至少部分区域中的检测目标,具体可以通过以下几种方法的任一种或几种的结合进行确认。
第一种确认方法:
从多个视频帧中的至少一个视频帧中,确定目标手部动作中的手指的指向区域与面部所在区域的交集区域,并确定交集区域内的检测目标。其中,单手手指的指向区域与面部所在区域的交集区域可以参考图7a所示。双手手指的指向区域与面部所在区域的交集区域可以参考图7b所示,且两只手的手指的指向区域的交集或并集作为手指的指向区域。检测目标的识别可以通过现有的人脸识别技术进行识别和判断,在此不再详细介绍。
第二种确认方法:
首先,将面部区域划分ROI区域,参考图8a,图8a示出了人脸ROI区域划分的示意图,如图8a所示,人脸的ROI区域包括额头801、脸颊802、下巴803、鼻梁804、人中805、苹果肌806、眼袋807等,其中,部分ROI区域可以有重叠部分,例如,苹果肌806区域与脸颊802区域重叠,在扩展内容库中,人脸的各个ROI区域分别关联有扩展内容,且该扩展内容可以将ROI区域的知识点融合。例如,在化妆模式中,用户手指的指向区域在眼袋处,该位置区域不仅含有皱纹还会包括与眼袋处相关的黑眼圈,因而将ROI区域结合,使得扩展内容更加丰富,分析更加准确,同时提高用户的趣味性。
其次,确定用户的手指的指向区域与ROI区域的交集区域。并从该交集区域中确定检测目标。
在本申请的一个实施例中,在上述第二种方法中,当交集区域内覆盖两个以上ROI区域时,从该交集区域内的覆盖面积最大的ROI区域内确定检测目标。其中,覆盖面积可以是交集区域和人脸ROI区域的覆盖面积的绝对面积,即覆盖面积为平面几何图形的真实面积,例如,真实面积为35平方厘米。也可以是交集区域和人脸ROI区域的覆盖面积与人脸大小的相对面积,例如,覆盖面积35平方厘米,人脸大小是350平方厘米,相对面积为覆盖面积占人脸大小的比值是0.1。
参考图8b,图8b示出了交集区域内覆盖多个ROI区域的示意图,如图8b所示,手指的指向区域808覆盖了ROI区域1,ROI区域2和ROI区域3,其中,在该交集区域内,ROI区域1的面积>ROI区域2>ROI区域3,因此可以从面积最大的ROI区域1内的确定检测目标。
第三种确认方法:
对ROI区域预先设置有优先级,从交集区域内优先级高的ROI区域中确定检测目标。例如,按照优先级从高到低依次排序,依次为眼袋、脸颊、鼻梁等等,当手指的指向区域覆盖三者,则从眼袋所在的ROI区域内确定检测目标。
第四种确认方法:
对交集区域内的ROI区域设置权重值,例如、可以对交集区域内的ROI区域的面积、被检测的次数多少等参数设置权重,并检测交集区域内的所有ROI区域内的图像特征,并从该图像特征中找出分值最高的图像特征作为检测目标。
下面以交集区域内的ROI区域的面积的权重为例,对图像特征分值的计算进行说明。
图像特征分值计算公式为:图像特征分值=图像特征与该图像特征对应的特征标准模型的匹配度*交集区域内的ROI区域的面积权重。其中,图像特征的确定可以基于扩展内容中的知识点进行确定,由于确定的图像特征与特征标准模型会有差异,因而通过求出图像特征与特征标准模型的匹配度,可以找到一个最接近特征标准模型的图像特征,同时与交集区域内的ROI区域的权重相乘后,可以找到综合分值较高的图像特征。例如,通过扩展内容的知识点找到的图像特征为痘痘,痘痘与痘痘标准模型的相似度是99%,也就是匹配度0.99。若该痘痘的所在ROI区域的面积权重为0.7,则痘痘的分值=0.7*0.99=0.693。以此计算其他图像特征分值,选择分值最高的图像特征最为检测目标。
在本申请的上述第一、第二和第三的确定方法中,当处理器确定的交集区域存在多个图像特征时,也可以将全部的图像特征作为检测目标,也可以通过用户进一步的点选等方式选择至少一个图像特征作为检测目标。参考图8c,图8c示出了手机的用户界面示意图,该用户界面810显示多个图像特征811,以及用户提示区812,图像特征811可以直观的展示交集区域内的图像特征,用户可以直接点击图像特征并确定为检测目标。用户提示区812用于提醒用户对图像特征进行选择的文字信息,例如,提示用户:请您点击图像特征并确定检测目标等文字。
在步骤S560,处理器确定检测目标后,执行步骤S570。
在步骤S570,基于检测目标及检测目标的形态输出与其关联的扩展内容。其中,输出的方式可以通过界面显示,或者语音播报、或者界面和语音的结合的方式等,以便于用户可以通过用户界面和/或语音播报得知与检测目标对应的扩展内容。
参考图9a,以手机的界面输出为例,图9a示出了手机的用户界面示意图,如图9a所示,用户界面910中包括图像显示区911和知识点显示区912,其中,图像显示区911用于显示检测目标,知识点显示区912用于显示与检测目标对应的描述语料(文字描述),该描述语料可以选择拟人化的描述语句表达护肤或化妆等知识点,并以各种文件格式存储在手机的内部存储器、外部存储器或云端,例如word格式、xml格式等,描述语料可以描述检测目标的状态,如,严重等级、专业分类、形状、大小、颜色等,以及如何护理或化妆的建议等,以使得用户更容易了解检测目标,并了解该如何护理或化妆。
参考图9b,当手机处于护肤模式,以检测目标为痘痘为例,图9b示出了痘痘的检测结果的用户界面示意图,如图9b所示,手机的界面在图像显示区911显示痘痘的图像,根据痘痘的图像特征给出对应的描述语料,结合用户的健康数据、生活习惯、使用产品给出个性化建议,在知识点显示区912显示与痘痘对应的护理的描述语料,如:“您当前的痘痘为:中度(I I级),临床表现为:炎性丘瘆;建议您使用化苯甲醜/外用抗生素,或过氧化苯甲酰+外用抗生素;最近尽量减少户外运用,正在使用的XXX产品可先暂停使用。”当描述的内容较多,用户可以通过翻动页面或向下滑动当前页面以获取完整的描述。
参考图9c,当手机处于化妆模式,以检测目标为眉毛为例,图9c示出了眉毛的检测结果的用户界面示意图,如图9c所示,界面930的图像显示区911显示用户的人脸图像,用户可以通过人脸图像观看到自己的眉毛、脸型、五官轮廓等,可以首先判断用户属于常见脸型中的哪一种,并根据用户的脸型和眉毛生长情况给出对应的描述语料,结合用户的面部肌肤数据、化妆习惯、使用产品给出个性化建议。并在知识点显示区912显示与眉毛对应的化妆的描述语料,如,您属于鹅蛋脸,适合使用柔和的眉形,不破坏鹅蛋脸型原本的美感。可适当将现有眉形的眉峰拉高,尾部稍加修饰。推荐使用XXX眉笔的YY色号。”
此外,本申请中的一些实施例中,图像显示区911和知识点显示区912还可以展示如图10a-10d所述的检测目标的诊断,如图10a所示的痘痘分级图像及对应的描述语料,其中,扩展内容关于痘痘的知识点可以包括痘痘的专业分类,根据痘痘的形状、大小、颜色,可以分为四级三度,其中,痘痘在医学上的专业术语叫做痤疮,具体分类如下表1所示:
表1
如图10b所示的色斑类型的图像,色斑分为雀斑、黄褐斑、妊娠斑、辐射斑、太田痣、铅汞斑、咖啡斑、老年斑和日晒斑等。
如图10c所示的红区问题分析及图像,问题分析可以包括,红区属于晒红、红血丝、炎症、玫瑰痤疮等。
如图10d所示的不同脸型对应的眉形的化妆的描述语料,包括:脸型的描述以及该脸型适应哪一种眉形的描述语料等。
在本申请的一个实施例中,当用户选择化妆模式,还可以在给出用户化妆建议后,向用户以虚拟的图像展示用户化妆后的图像,以使用户可以了解化妆后的形象。参考图10e所示,手机界面1010可以显示虚拟的化妆后的用户的脸部图像,用户通过保存键1011保存该虚拟的脸部图像,以便于用户直观的感受到化妆后的模样,提高用户的体验。
根据本申请的一些实施例,上述用户面部区域的状态分析与建议可以通过语音播放的方式反馈给用户,或者,界面显示与语音播报结合的方式向客户展示等,当用户在画眉毛不方便用手操作手机时,语音播报更有助于本申请基于肌肤检测装置的交互方法与用户进行交互。
参考图11,本申请实施例还提供了一种电子设备,电子设备1100包含一个或多个存储1101,与存储器1101耦合的一个或多个处理器1102,与处理器1102连接的至少一个摄像头1103,以及一个或多个程序,其中一个或多个程序被存储在存储器1101中,电子设备1100用于执行以下步骤:
摄像头1103,获取同时包括用户的面部和手部的多个视频帧;
处理器1102识别多个视频帧中的用户的手部相对于面部的动作,并确定目标手部动作;
处理器1102响应于目标手部动作,确定视频帧中的用户的面部上至少部分区域中的检测目标;
处理器1102基于检测目标及检测目标的形态,从扩展内容库中确定与该检测目标及检测目标的形态关联的扩展内容,并通过显示屏输出扩展内容。
根据本申请的一个实施例,确定目标手部动作,包括:处理器1102确定视频帧中的手指的指尖所在位置距离面部所在位置小于预设距离,则确定手部动作为目标手部动作。
根据本申请的一个实施例,确定目标手部动作,包括:处理器1102确定视频帧中的手指的指尖所在位置距离面部所在位置小于预设距离,并且确定视频帧中手指相对于面部相对静止持续的时间大于预设时间,则确定手部动作为目标手部动作。
根据本申请的一个实施例,确定目标手部动作,包括:处理器1102确定视频中包括两只手;并且确定视频帧中的两只手的手指的指尖所在位置距离面部所在位置小于预设距离,并且确定视频帧中两只手的手指相对于面部相对静止持续的时间大于预设时间,则确定手部动作为目标手部动作。
根据本申请的一个实施例,当手指相对于面部的相对运动的幅度小于预设值时,确定视频帧中两只手的手指相对于面部相对静止。
根据本申请的一个实施例,处理器1102确定视频帧中的手指所在位置距离面部所在位置小于预设距离,包括:视频帧中的用户的手指所在位置区域面部所在位置区域重叠,或者,视频帧中的手指与面部不重叠,但所属手指的指尖与面部距离手指指尖最近的边沿点之间的距离小于预设距离。
根据本申请的一个实施例,处理器1102响应于目标手部动作,确定视频帧中的用户的面部上至少部分区域中的检测目标,包括:从多个视频帧中的至少一个视频帧中,确定目标手部动作中的手指的指向区域与面部所在区域的交集区域,并确定交集区域内的检测目标。
根据本申请的一个实施例,手指的指向区域为以手指的指尖为基准点,手指的指向为基准方向确定的几何图形,并且几何图形具有用户预先设定的大小和轮廓。几何图形包括梯形、扇形、三角形、圆形、方形中的任一种。
根据本申请的一个实施例,该方法包括:确定视频中包括两只手;手指的指向区域为以手指的指尖为基准点,手指的指向为基准方向确定的几何图形,其中几何图形是用户预先设定的几何图形,两只手的手指的指向区域的交集或并集作为手指的指向区域。几何图形包括梯形、扇形、三角形、圆形、方形中的任一种。
根据本申请的一个实施例,面部包括至少一个预设的ROI区域;处理器1102响应于目标手部动作,确定视频帧中的用户的面部上至少部分区域中的检测目标,进一步包括:从多个视频帧中的至少一个视频帧中,确定目标手部动作中的手指的指向区域与面部中12.根据权包括的ROI区域的交集区域,并确定交集区域内的检测目标。
根据本申请的一个实施例,当确定交集区域内覆盖两个以上ROI区域时,从交集区域内的覆盖面积最大的ROI区域内确定检测目标。
根据本申请的一个实施例,当确定交集区域内覆盖两个以上ROI区域时,基于ROI区域的预设权重和ROI区域的图像特征与图像特征对应的特征标准模型的匹配度,将ROI区域内分值最高的图像特征确定为检测目标。
根据本申请的一个实施例,当确定交集区域内覆盖两个以上ROI区域时,进一步包括:处理器基于用户对ROI区域内的检测目标的第一操作,确定检测目标。
根据本申请的一个实施例,检测目标包括肤色、痘痘、细纹、毛孔、黑头、痤疮、斑块和红血丝中的一种或多种皮肤状态,或者,检测目标包括鼻子、嘴巴、眼睛、眉毛、脸部轮廓、皮肤颜色中的一种或多种。
根据本申请的一个实施例,多个视频帧是预设时长内连续的多个视频帧。
根据本申请的一个实施例,该方法还包括:电子设备1102通过电子设备的摄像头1103获取用户的实时影像,并在第一界面显示用户的实时影像,以及从实时影像中获取同时具有用户的面部和手部的设定时长内的视频帧。
根据本申请的一个实施例,获取同时包括用户的面部和手部的多个视频帧之前,还包括:电子设备响应于用户的输入操作,确定执行化妆模式或执行护肤模式。
根据本申请的一个实施例,电子设备1100输出扩展内容,包括:显示屏显示第二界面,第二界面中包括基于目标手部动作确定的检测目标及检测目标的形态对应的扩展内容;或者,扬声器语音播报基于目标手部动作确定的检测目标及检测目标的形态对应的扩展内容。
根据本申请的一个实施例,扩展内容包括:基于护肤状态时的检测目标的问题分析和护理建议中的一种或多种,或者,基于化妆状态时的检测目标的化妆状态分析和化妆建议中的一种或多种。
本申请中,电子设备1101各部件及各部件的工作过程,在上述实施例中已经详细的说明,具体可参见上述图1-图10e示出的用于肌肤检测的电子设备的交互方法,在此不再赘述。
本申请实施例还提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器运行时,使得处理器执行上述图1-图10e示出的用于肌肤检测的电子设备的交互方法。
本申请实施例还提供了一种包含指令的计算机程序产品,当该计算机程序产品在电子设备上运行时,使得处理器执行上述图1-图10e示出的用于肌肤检测的电子设备的交互方法。
现在参考图12,所示为根据本申请的一个实施例的设备1200的框图。设备1200可以包括耦合到控制器中枢1203的一个或多个处理器1201。对于至少一个实施例,控制器中枢1203经由诸如前端总线(Front Side Bus,FSB)之类的多分支总线、诸如快速通道互连(Quick Path Interconnect,QPI)之类的点对点接口、或者类似的连接1206与处理器1201进行通信。处理器1201执行控制一般类型的数据处理操作的指令。在一实施例中,控制器中枢1203包括,但不局限于,图形存储器控制器中枢(Graphics Memory Controller Hub,GMCH)(未示出)和输入/输出中枢(Input Output Hub,IOH)(其可以在分开的芯片上)(未示出),其中GMCH包括存储器和图形控制器并与IOH耦合。
设备1200还可包括耦合到控制器中枢1203的协处理器1202和存储器1204。或者,存储器和GMCH中的一个或两者可以被集成在处理器内(如本申请中所描述的),存储器1204和协处理器1202直接耦合到处理器1201以及控制器中枢1203,控制器中枢1203与IOH处于单个芯片中。存储器1204可以是例如动态随机存取存储器(Dynamic Random AccessMemory,DRAM)、相变存储器(Phase Change Memory,PCM)或这两者的组合。在一个实施例中,协处理器1202是专用处理器,诸如例如高吞吐量MIC处理器(Many Integerated Core,MIC)、网络或通信处理器、压缩引擎、图形处理器、通用图形处理器(General PurposeComputing on GPU,GPGPU)、或嵌入式处理器等等。协处理器1202的任选性质用虚线表示在图12中。
存储器1204作为计算机可读存储介质,可以包括用于存储数据和/或指令的一个或多个有形的、非暂时性计算机可读介质。例如,存储器1204可以包括闪存等任何合适的非易失性存储器和/或任何合适的非易失性存储设备,例如一个或多个硬盘驱动器(Hard-Disk Drive,HDD(s)),一个或多个光盘(Compact Disc,CD)驱动器,和/或一个或多个数字通用光盘(Digital Versatile Disc,DVD)驱动器。
在一个实施例中,设备1200可以进一步包括网络接口(Network InterfaceController,NIC)1206。网络接口1206可以包括收发器,用于为设备1200提供无线电接口,进而与任何其他合适的设备(如前端模块,天线等)进行通信。在各种实施例中,网络接口1206可以与设备1200的其他组件集成。网络接口1206可以实现上述实施例中的通信单元的功能。
设备1200可以进一步包括输入/输出(Input/Output,I/O)设备1205。I/O 1205可以包括:用户界面,该设计使得用户能够与设备1200进行交互;***组件接口的设计使得***组件也能够与设备1200交互;和/或传感器设计用于确定与设备1200相关的环境条件和/或位置信息。
值得注意的是,图12仅是示例性的。即虽然图12中示出了设备1200包括处理器1201、控制器中枢1203、存储器1204等多个器件,但是,在实际的应用中,使用本申请各方法的设备,可以仅包括设备1200各器件中的一部分器件,例如,可以仅包含处理器1201和NIC1206。图12中可选器件的性质用虚线示出。
根据本申请的一些实施例,作为计算机可读存储介质的存储器1204上存储有指令,该指令在计算机上执行时使***1200执行根据上述实施例中的计算方法,具体可参照上述实施例的图1-图10e示出的用于肌肤检测的电子设备的交互方法,在此不再赘述。
现在参考图13,所示为根据本申请的一实施例的SoC(System on Chip,片上***)1300的框图。在图13中,相似的部件具有同样的附图标记。另外,虚线框是更先进的SoC的可选特征。在图13中,SoC1300包括:互连单元1350,其被耦合至应用处理器1310;***代理单元1380;总线控制器单元1390;集成存储器控制器单元1340;一组或一个或多个协处理器1320,其可包括集成图形逻辑、图像处理器、音频处理器和视频处理器;静态随机存取存储器(Static Random Access Memory,SRAM)单元1330;直接存储器存取(DMA)单元1360。在一个实施例中,协处理器1320包括专用处理器,诸如例如网络或通信处理器、压缩引擎、GPGPU、高吞吐量MIC处理器、或嵌入式处理器等。
在一个实施例中,静态随机存取存储器(SRAM)单元1330中可以包括用于存储数据和/或指令的一个或多个计算机可读介质。计算机可读存储介质中可以存储有指令,具体而言,存储有该指令的暂时和永久副本。该指令可以包括:由处理器中的至少一个单元执行时使Soc1300执行根据上述实施例中的图1-图10e示出的用于肌肤检测的电子设备的交互方法,具体可参照上述实施例的方法,在此不再赘述。
本申请公开的机制的各实施例可以被实现在硬件、软件、固件或这些实现方法的组合中。本申请的实施例可实现为在可编程***上执行的计算机程序或程序代码,该可编程***包括至少一个处理器、存储***(包括易失性和非易失性存储器和/或存储元件)、至少一个输入设备以及至少一个输出设备。
可将程序代码应用于输入指令,以执行本申请描述的各功能并生成输出信息。可以按已知方式将输出信息应用于一个或多个输出设备。为了本申请的目的,处理***包括具有诸如例如数字信号处理器(Digital Signal Processor,DSP)、微控制器、专用集成电路(Application Specific Integrated Circuit,ASIC)或微处理器之类的处理器的任何***。
程序代码可以用高级程序化语言或面向对象的编程语言来实现,以便与处理***通信。在需要时,也可用汇编语言或机器语言来实现程序代码。事实上,本申请中描述的机制不限于任何特定编程语言的范围。在任一情形下,该语言可以是编译语言或解释语言。
在一些情况下,所公开的实施例可以以硬件、固件、软件或其任何组合来实现。所公开的实施例还可以被实现为由一个或多个暂时或非暂时性机器可读(例如,计算机可读)存储介质承载或存储在其上的指令,其可以由一个或多个处理器读取和执行。例如,指令可以通过网络或通过其他计算机可读介质分发。因此,机器可读介质可以包括用于以机器(例如,计算机)可读的形式存储或传输信息的任何机制,包括但不限于,软盘、光盘、光碟、光盘只读存储器(Compact Disc Read Only Memory,CD-ROMs)、磁光盘、只读存储器(Read OnlyMemory,ROM)、随机存取存储器(RAM)、可擦除可编程只读存储器(Erasable ProgrammableRead Only Memory,EPROM)、电可擦除可编程只读存储器(Electrically ErasableProgrammable Read Only Memory,EEPROM)、磁卡或光卡、闪存、或用于利用因特网以电、光、声或其他形式的传播信号来传输信息(例如,载波、红外信号数字信号等)的有形的机器可读存储器。因此,机器可读介质包括适合于以机器(例如,计算机)可读的形式存储或传输电子指令或信息的任何类型的机器可读介质。
在附图中,可以以特定布置和/或顺序示出一些结构或方法特征。然而,应该理解,可能不需要这样的特定布置和/或排序。而是,在一些实施例中,这些特征可以以不同于说明书附图中所示的方式和/或顺序来布置。另外,在特定图中包括结构或方法特征并不意味着暗示在所有实施例中都需要这样的特征,并且在一些实施例中,可以不包括这些特征或者可以与其他特征组合。
需要说明的是,本申请各设备实施例中提到的各单元/模块都是逻辑单元/模块,在物理上,一个逻辑单元/模块可以是一个物理单元/模块,也可以是一个物理单元/模块的一部分,还可以以多个物理单元/模块的组合实现,这些逻辑单元/模块本身的物理实现方式并不是最重要的,这些逻辑单元/模块所实现的功能的组合才是解决本申请所提出的技术问题的关键。此外,为了突出本申请的创新部分,本申请上述各设备实施例并没有将与解决本申请所提出的技术问题关系不太密切的单元/模块引入,这并不表明上述设备实施例并不存在其它的单元/模块。
需要说明的是,在本专利的示例和说明书中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
虽然通过参照本申请的某些优选实施例,已经对本申请进行了图示和描述,但本领域的普通技术人员应该明白,可以在形式上和细节上对其作各种改变,而不偏离本申请的精神和范围。
Claims (23)
1.一种用于肌肤检测的电子设备的交互方法,其特征在于,包括:
所述电子设备获取同时包括用户的面部和手部的多个视频帧;
所述电子设备识别所述多个视频帧中的用户的手部相对于所述面部的动作,并确定目标手部动作;
所述电子设备响应于所述目标手部动作,确定所述视频帧中的用户的面部上至少部分区域中的检测目标;
所述电子设备基于所述检测目标及检测目标的形态,从扩展内容库中确定与该检测目标及检测目标的形态关联的扩展内容,并输出所述扩展内容。
2.根据权利要求1所述的方法,其特征在于,所述确定目标手部动作,包括:
所述电子设备确定所述视频帧中的手指的指尖所在位置距离所述面部所在位置小于预设距离,则确定所述手部动作为目标手部动作。
3.根据权利要求1所述的方法,其特征在于,所述确定目标手部动作,包括:
确定所述视频帧中的手指的指尖所在位置距离所述面部所在位置小于预设距离,并且
确定所述视频帧中所述手指相对于所述面部相对静止持续的时间大于预设时间,则确定所述手部动作为目标手部动作。
4.根据权利要求1所述的方法,其特征在于,所述确定目标手部动作,包括:确定所述视频中包括两只手;并且
确定所述视频帧中的两只手的手指的指尖所在位置距离所述面部所在位置小于预设距离,并且
确定所述视频帧中所述两只手的手指相对于所述面部相对静止持续的时间大于预设时间,则确定所述手部动作为目标手部动作。
5.根据权利要求3或4所述的方法,其特征在于,当所述手指相对于所述面部的相对运动的幅度小于预设值时,确定所述视频帧中手指相对于所述面部相对静止。
6.根据权利要求3或4所述的方法,其特征在于,所述电子设备确定所述视频帧中的所述手指所在位置距离所述面部所在位置小于预设距离,包括:
所述视频帧中的用户的手指所在位置区域所述面部所在位置区域重叠,或者,
所述视频帧中的所述手指与所述面部不重叠,但所属手指的指尖与所述面部距离手指指尖最近的边沿点之间的距离小于预设距离。
7.根据权利要求1-6任一项所述的方法,其特征在于,所述电子设备响应于所述目标手部动作,确定所述视频帧中的用户的面部上至少部分区域中的检测目标,包括:
从所述多个视频帧中的至少一个视频帧中,确定所述目标手部动作中的手指的指向区域与所述面部所在区域的交集区域,并确定所述交集区域内的所述检测目标。
8.根据权利要求7所述的方法,其特征在于,所述手指的指向区域为以手指的指尖为基准点,手指的指向为基准方向确定的几何图形,并且所述几何图形具有用户预先设定的大小和轮廓。
9.根据权利要求7所述的方法,其特征在于,包括:确定所述视频中包括两只手;所述手指的指向区域为以手指的指尖为基准点,手指的指向为基准方向确定的几何图形,其中所述几何图形是用户预先设定的几何图形;
所述两只手的手指的指向区域的交集或并集作为所述手指的指向区域。
10.根据权利要求8或9所述的方法,其特征在于,所述几何图形包括梯形、扇形、三角形、圆形、方形中的任一种。
11.根据权利要求7所述的方法,其特征在于,所述面部包括至少一个预设的ROI区域;
所述电子设备响应于所述目标手部动作,确定所述视频帧中的用户的面部上至少部分区域中的检测目标,进一步包括:
从所述多个视频帧中的至少一个视频帧中,确定所述目标手部动作中的手指的指向区域与所述面部中包括的ROI区域的交集区域,并确定所述交集区域内的所述检测目标。
12.根据权利要求11所述的方法,其特征在于,当确定所述交集区域内覆盖两个以上ROI区域时,从所述交集区域内的覆盖面积最大的ROI区域内确定检测目标。
13.根据权利要求11所述的方法,其特征在于,当确定所述交集区域内覆盖两个以上ROI区域时,
基于ROI区域的预设权重和ROI区域的图像特征与所述图像特征对应的特征标准模型的匹配度,将ROI区域内分值最高的图像特征确定为所述检测目标。
14.根据权利要求11所述的方法,其特征在于,当确定所述交集区域内覆盖两个以上ROI区域时,进一步包括:
所述电子设备基于用户对所述ROI区域内的检测目标的第一操作,确定所述检测目标。
15.根据权利要求1所述的方法,其特征在于,所述检测目标包括肤色、痘痘、细纹、毛孔、黑头、痤疮、斑块和红血丝中的一种或多种皮肤状态,或者,所述检测目标包括鼻子、嘴巴、眼睛、眉毛、脸部轮廓、皮肤颜色中的一种或多种。
16.根据权利要求1所述的方法,其特征在于,多个视频帧是预设时长内连续的多个视频帧。
17.根据权利要求1所述的方法,其特征在于,还包括:
所述电子设备通过所述电子设备的摄像头获取所述用户的实时影像,并在第一界面显示用户的实时影像,以及从所述实时影像中获取同时具有用户的面部和手部的设定时长内的视频帧。
18.根据权利要求1所述的方法,其特征在于,获取同时包括用户的面部和手部的多个视频帧之前,还包括:所述电子设备响应于用户的输入操作,确定执行化妆模式或执行护肤模式。
19.根据权利要求1所述的方法,其特征在于:所述电子设备输出所述扩展内容,包括:
所述电子设备显示第二界面,所述第二界面中包括基于所述目标手部动作确定的所述检测目标及所述检测目标的形态对应的扩展内容;或者,
所述电子设备语音播报基于所述目标手部动作确定的所述检测目标及所述检测目标的形态对应的扩展内容。
20.根据权利要求1或所述的方法,其特征在于,所述扩展内容包括:
基于护肤状态时的所述检测目标的问题分析和护理建议中的一种或多种,或者,
基于化妆状态时的所述检测目标的化妆状态分析和化妆建议中的一种或多种。
21.一种电子设备,其特征在于,包含一个或多个存储器,与所述存储器耦合的一个或多个处理器,以及一个或多个程序,其中所述一个或多个程序被存储在所述存储器中,所述电子设备用于执行如权利要求1至20任一项所述的方法。
22.一种计算机可读存储介质,其特征在于,计算机可读存储介质存储有计算机程序,计算机程序被处理器运行时,使得处理器执行权利要求1-20任一项的方法。
23.一种包含指令的计算机程序产品,其特征在于,当该计算机程序产品在电子设备上运行时,使得处理器执行权利要求1-20任一项的方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010459215.5A CN111651040B (zh) | 2020-05-27 | 2020-05-27 | 用于肌肤检测的电子设备的交互方法及电子设备 |
US17/927,580 US20230215208A1 (en) | 2020-05-27 | 2021-05-26 | Interaction Method for Electronic Device for Skin Detection, and Electronic Device |
EP21812300.8A EP4145251A4 (en) | 2020-05-27 | 2021-05-26 | METHOD FOR INTERACTION WITH AN ELECTRONIC DEVICE FOR SKIN INSPECTION, AND ELECTRONIC DEVICE |
PCT/CN2021/096113 WO2021238995A1 (zh) | 2020-05-27 | 2021-05-26 | 用于肌肤检测的电子设备的交互方法及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010459215.5A CN111651040B (zh) | 2020-05-27 | 2020-05-27 | 用于肌肤检测的电子设备的交互方法及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111651040A true CN111651040A (zh) | 2020-09-11 |
CN111651040B CN111651040B (zh) | 2021-11-26 |
Family
ID=72350951
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010459215.5A Active CN111651040B (zh) | 2020-05-27 | 2020-05-27 | 用于肌肤检测的电子设备的交互方法及电子设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230215208A1 (zh) |
EP (1) | EP4145251A4 (zh) |
CN (1) | CN111651040B (zh) |
WO (1) | WO2021238995A1 (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112749634A (zh) * | 2020-12-28 | 2021-05-04 | 广州星际悦动股份有限公司 | 基于美容设备的控制方法、装置以及电子设备 |
CN113301243A (zh) * | 2020-09-14 | 2021-08-24 | 阿里巴巴集团控股有限公司 | 图像处理方法、交互方法、***、装置、设备和存储介质 |
CN113434759A (zh) * | 2021-06-24 | 2021-09-24 | 青岛海尔科技有限公司 | 推荐内容的确定方法及***、镜子、存储介质及电子装置 |
CN113499036A (zh) * | 2021-07-23 | 2021-10-15 | 厦门美图之家科技有限公司 | 皮肤监测方法、装置、电子设备及计算机可读存储介质 |
WO2021238995A1 (zh) * | 2020-05-27 | 2021-12-02 | 华为技术有限公司 | 用于肌肤检测的电子设备的交互方法及电子设备 |
CN114155569A (zh) * | 2021-08-31 | 2022-03-08 | 北京新氧科技有限公司 | 一种化妆进度检测方法、装置、设备及存储介质 |
CN114816195A (zh) * | 2021-01-28 | 2022-07-29 | 华为技术有限公司 | 一种护肤打卡方法和电子设备 |
EP4113253A1 (en) * | 2021-07-02 | 2023-01-04 | Perfect Mobile Corp. | System and method for navigating user interfaces using a hybrid touchless control mechanism |
EP4131184A1 (en) * | 2021-08-03 | 2023-02-08 | Koninklijke Philips N.V. | Analysing skin features |
US11690435B2 (en) | 2020-07-07 | 2023-07-04 | Perfect Mobile Corp. | System and method for navigating user interfaces using a hybrid touchless control mechanism |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104299011A (zh) * | 2014-10-13 | 2015-01-21 | 吴亮 | 一种基于人脸图像识别的肤质与皮肤问题识别检测方法 |
CN106095088A (zh) * | 2016-06-06 | 2016-11-09 | 联想(北京)有限公司 | 一种电子设备及其图像处理方法 |
CN108062400A (zh) * | 2017-12-25 | 2018-05-22 | 深圳市美丽控电子商务有限公司 | 基于智能镜的试妆方法、智能镜及存储介质 |
US20180199856A1 (en) * | 2015-07-08 | 2018-07-19 | Samsung Electronics Co., Ltd. | Electronic device and method for providing information related to skin type of object |
CN108354587A (zh) * | 2016-05-24 | 2018-08-03 | 丽宝大数据股份有限公司 | 个性化皮肤诊断和皮肤护理 |
CN109977906A (zh) * | 2019-04-04 | 2019-07-05 | 睿魔智能科技(深圳)有限公司 | 手势识别方法及***、计算机设备及存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2981935A4 (en) * | 2013-04-03 | 2016-12-07 | Nokia Technologies Oy | APPARATUS AND ASSOCIATED METHODS |
CN104797165A (zh) * | 2013-08-30 | 2015-07-22 | 松下知识产权经营株式会社 | 化妆辅助装置、化妆辅助方法以及化妆辅助程序 |
EP3017755A1 (en) * | 2014-11-04 | 2016-05-11 | Samsung Electronics Co., Ltd. | Electronic device, and method for analyzing face information in electronic device |
WO2016121329A1 (ja) * | 2015-01-29 | 2016-08-04 | パナソニックIpマネジメント株式会社 | 画像処理装置、スタイラス、および画像処理方法 |
CN109793498B (zh) * | 2018-12-26 | 2020-10-27 | 华为终端有限公司 | 一种皮肤检测方法及电子设备 |
CN111651040B (zh) * | 2020-05-27 | 2021-11-26 | 华为技术有限公司 | 用于肌肤检测的电子设备的交互方法及电子设备 |
-
2020
- 2020-05-27 CN CN202010459215.5A patent/CN111651040B/zh active Active
-
2021
- 2021-05-26 EP EP21812300.8A patent/EP4145251A4/en active Pending
- 2021-05-26 WO PCT/CN2021/096113 patent/WO2021238995A1/zh unknown
- 2021-05-26 US US17/927,580 patent/US20230215208A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104299011A (zh) * | 2014-10-13 | 2015-01-21 | 吴亮 | 一种基于人脸图像识别的肤质与皮肤问题识别检测方法 |
US20180199856A1 (en) * | 2015-07-08 | 2018-07-19 | Samsung Electronics Co., Ltd. | Electronic device and method for providing information related to skin type of object |
CN108354587A (zh) * | 2016-05-24 | 2018-08-03 | 丽宝大数据股份有限公司 | 个性化皮肤诊断和皮肤护理 |
CN106095088A (zh) * | 2016-06-06 | 2016-11-09 | 联想(北京)有限公司 | 一种电子设备及其图像处理方法 |
CN108062400A (zh) * | 2017-12-25 | 2018-05-22 | 深圳市美丽控电子商务有限公司 | 基于智能镜的试妆方法、智能镜及存储介质 |
CN109977906A (zh) * | 2019-04-04 | 2019-07-05 | 睿魔智能科技(深圳)有限公司 | 手势识别方法及***、计算机设备及存储介质 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021238995A1 (zh) * | 2020-05-27 | 2021-12-02 | 华为技术有限公司 | 用于肌肤检测的电子设备的交互方法及电子设备 |
US11690435B2 (en) | 2020-07-07 | 2023-07-04 | Perfect Mobile Corp. | System and method for navigating user interfaces using a hybrid touchless control mechanism |
CN113301243A (zh) * | 2020-09-14 | 2021-08-24 | 阿里巴巴集团控股有限公司 | 图像处理方法、交互方法、***、装置、设备和存储介质 |
CN113301243B (zh) * | 2020-09-14 | 2023-08-11 | 阿里巴巴(北京)软件服务有限公司 | 图像处理方法、交互方法、***、装置、设备和存储介质 |
CN112749634A (zh) * | 2020-12-28 | 2021-05-04 | 广州星际悦动股份有限公司 | 基于美容设备的控制方法、装置以及电子设备 |
EP4266155A4 (en) * | 2021-01-28 | 2024-05-29 | Huawei Tech Co Ltd | RECORDING METHOD FOR SKIN CARE AND ELECTRONIC DEVICE |
CN114816195A (zh) * | 2021-01-28 | 2022-07-29 | 华为技术有限公司 | 一种护肤打卡方法和电子设备 |
EP4266155A1 (en) * | 2021-01-28 | 2023-10-25 | Huawei Technologies Co., Ltd. | Skin care check-in method and electronic device |
CN113434759A (zh) * | 2021-06-24 | 2021-09-24 | 青岛海尔科技有限公司 | 推荐内容的确定方法及***、镜子、存储介质及电子装置 |
EP4113253A1 (en) * | 2021-07-02 | 2023-01-04 | Perfect Mobile Corp. | System and method for navigating user interfaces using a hybrid touchless control mechanism |
CN113499036A (zh) * | 2021-07-23 | 2021-10-15 | 厦门美图之家科技有限公司 | 皮肤监测方法、装置、电子设备及计算机可读存储介质 |
EP4131184A1 (en) * | 2021-08-03 | 2023-02-08 | Koninklijke Philips N.V. | Analysing skin features |
CN114155569B (zh) * | 2021-08-31 | 2022-11-04 | 北京新氧科技有限公司 | 一种化妆进度检测方法、装置、设备及存储介质 |
CN114155569A (zh) * | 2021-08-31 | 2022-03-08 | 北京新氧科技有限公司 | 一种化妆进度检测方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111651040B (zh) | 2021-11-26 |
EP4145251A1 (en) | 2023-03-08 |
US20230215208A1 (en) | 2023-07-06 |
EP4145251A4 (en) | 2023-11-01 |
WO2021238995A1 (zh) | 2021-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111651040B (zh) | 用于肌肤检测的电子设备的交互方法及电子设备 | |
JP7391102B2 (ja) | ジェスチャ処理方法およびデバイス | |
CN109981839B9 (zh) | 一种具有柔性屏幕的电子设备的显示方法及电子设备 | |
WO2021052290A1 (zh) | 一种音量调节方法及电子设备 | |
WO2021000881A1 (zh) | 一种分屏方法及电子设备 | |
CN113645351B (zh) | 应用界面交互方法、电子设备和计算机可读存储介质 | |
CN113325941B (zh) | 屏下指纹显示方法及电子设备 | |
CN114397981A (zh) | 一种应用显示方法及电子设备 | |
CN112671976B (zh) | 电子设备的控制方法、装置及电子设备、存储介质 | |
WO2020029306A1 (zh) | 一种图像拍摄方法及电子设备 | |
CN111669462B (zh) | 一种显示图像的方法及相关装置 | |
CN110543287A (zh) | 一种屏幕显示方法及电子设备 | |
WO2021052139A1 (zh) | 手势输入方法及电子设备 | |
CN113805487B (zh) | 控制指令的生成方法、装置、终端设备及可读存储介质 | |
WO2022042766A1 (zh) | 信息显示方法、终端设备及计算机可读存储介质 | |
WO2022206494A1 (zh) | 目标跟踪方法及其装置 | |
WO2022052786A1 (zh) | 皮肤敏感度的显示方法、装置、电子设备及可读存储介质 | |
CN112449101A (zh) | 一种拍摄方法及电子设备 | |
WO2022222688A1 (zh) | 一种窗口控制方法及其设备 | |
CN113721827B (zh) | 悬浮键盘显示方法、电子设备及存储介质 | |
CN115437601A (zh) | 图像排序方法、电子设备、程序产品及介质 | |
CN115730091A (zh) | 批注展示方法、装置、终端设备及可读存储介质 | |
CN113971823A (zh) | 外表分析的方法和电子设备 | |
WO2024114493A1 (zh) | 一种人机交互的方法和装置 | |
WO2022222705A1 (zh) | 设备控制方法和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |