WO2020224126A1 - 一种基于人脸识别的自适应调节方法、***和可读存储介质 - Google Patents

一种基于人脸识别的自适应调节方法、***和可读存储介质 Download PDF

Info

Publication number
WO2020224126A1
WO2020224126A1 PCT/CN2019/103595 CN2019103595W WO2020224126A1 WO 2020224126 A1 WO2020224126 A1 WO 2020224126A1 CN 2019103595 W CN2019103595 W CN 2019103595W WO 2020224126 A1 WO2020224126 A1 WO 2020224126A1
Authority
WO
WIPO (PCT)
Prior art keywords
emotion
user
preset
sound
light
Prior art date
Application number
PCT/CN2019/103595
Other languages
English (en)
French (fr)
Inventor
朱胜强
Original Assignee
平安科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 平安科技(深圳)有限公司 filed Critical 平安科技(深圳)有限公司
Publication of WO2020224126A1 publication Critical patent/WO2020224126A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Definitions

  • This application relates to a biological recognition technology, and specifically discloses an adaptive adjustment method, system and readable storage medium based on face recognition.
  • Face recognition is a kind of biometric recognition technology based on the facial feature information of a person. It uses a camera or camera to collect an image or video stream containing a human face, and automatically detects and tracks the human face in the image. Face feature extraction is performed and compared with the face image features in the template library to achieve the purpose of identifying the identities of different people. Including: face image collection, face location, face image preprocessing and feature extraction, face recognition.
  • Facial expression recognition is of great significance in intelligent human-computer interaction, which enables robots to understand human emotions and is more humane. Facial expression recognition extracts features from static expressions and dynamically changing expressions, and analyzes and judges to obtain human emotional information, so as to understand human emotions, and meet certain needs of people and provide certain services based on expression attributes.
  • this application proposes an adaptive adjustment method based on face recognition, including:
  • the light and/or sound mode information the light and/or sound are adjusted.
  • the second aspect of the present application also provides an adaptive adjustment system based on face recognition.
  • the system includes a memory, a processor, and a camera.
  • the memory includes an adaptive adjustment method program based on face recognition, When the program of the adaptive adjustment method based on face recognition is executed by the processor, the following steps are implemented:
  • the light and/or sound mode information the light and/or sound are adjusted.
  • the third aspect of the present application also provides a computer-readable storage medium, the computer-readable storage medium includes a face recognition-based adaptive adjustment method program, the face recognition-based adaptive adjustment method program is processed When the device is executed, the steps of the above-mentioned adaptive adjustment method based on face recognition are realized.
  • adaptive light and sound adjustments can be performed on-site according to the user's emotions, which improves the user's sense of experience and makes on-site adjustments more intelligent.
  • This application uses the trained model to perform emotion recognition, which has higher accuracy and faster speed, and can obtain the user's emotional changes in real time; in addition, through the linear adjustment of the lights and sounds, it is not easy to appear the sudden strength and weakness of the lights and sounds , Making the user less noticeable, and improving the user's experience and hearing and visual comfort.
  • Fig. 1 shows a flowchart of an adaptive adjustment method based on face recognition of the present application
  • Figure 2 shows a flow chart of the method for obtaining mode information according to the present application
  • Figure 3 shows a flow chart of the method for obtaining mode information according to the present application
  • Figure 4 shows a flow chart of the emotion calculation method of the present application
  • Figure 5 shows a block diagram of an adaptive adjustment system based on face recognition of the present application.
  • Fig. 1 shows a flowchart of an adaptive adjustment method based on face recognition of the present application.
  • this application discloses an adaptive adjustment method based on face recognition, including:
  • S102 Perform face recognition on the user to obtain facial feature data of the user
  • S104 Recognizing user emotions through the facial feature data
  • S106 Compare the user mood with preset conditions, and obtain corresponding light and/or sound mode information
  • S108 Adjust the light and/or sound according to the light and/or sound mode information.
  • the camera device collects and judges the user's emotions on site.
  • the camera device can collect video and images, and can be a video camera, a camera, a mobile phone, or other devices that collect image data.
  • face recognition it can be collected in real time, or collected at predetermined intervals.
  • the predetermined time interval can be set to 30 seconds, and the camera device will collect image data every 30 seconds, and then perform face recognition on the collected image data to obtain facial feature data.
  • the emotions are happiness, surprise, anger, fear, disgust, sadness, etc.
  • the facial feature data is at least one of eye parameter values, eyebrow parameter values, nose parameter values, lip parameter values, and chin parameter values.
  • the user's emotions are compared with preset conditions to obtain corresponding light and/or sound mode information. Then control the lighting or sound of the scene to adjust to increase the user's experience.
  • the light adjustment can be to increase or decrease the intensity of the light, or to change the direction and angle of the illumination, or to change the area range of the light.
  • Sound adjustment can be to increase or decrease the intensity of the light, or to change the frequency of the sound.
  • Fig. 2 shows a flow chart of the method for obtaining mode information according to the present application.
  • the comparison of the user's emotions with preset conditions to obtain corresponding light and/or sound mode information includes:
  • S204 Determine whether the retention time of the user emotion reaches a preset duration of the emotion category to which it belongs;
  • Each emotional category corresponds to light and/or sound mode information.
  • irritability corresponds to a set of light and sound mode adjustment information
  • pleasant mood corresponds to a set of light and sound mode adjustment information
  • surprise mood corresponds to a set of light and sound mode adjustment information.
  • duration of the user's emotions the current state of the user is determined, whether it has been irritable, or whether it has been irritable before and is now happy.
  • the preset duration is the time preset by the system, and you can choose a time range of 2 minutes, 5 minutes, etc.
  • 2 minutes is selected as the preset duration.
  • the corresponding light and/or sound mode information will be obtained to change the light and sound.
  • Fig. 3 shows a flow chart of the method for obtaining mode information according to the present application. As shown in Fig. 3, comparing the user emotion with preset conditions to obtain corresponding light and/or sound mode information includes:
  • S302 Obtain the emotion of each user within a preset area, and perform statistics to obtain the number of users in each emotion category;
  • S304 Determine whether the number of users in a predetermined emotion category is greater than a preset user number threshold
  • a small sample can be selected for judgment, that is, a user in a fixed area is selected for emotion judgment.
  • the preset area range is set in the area in front of the auditorium.
  • the number of users in each emotion category is obtained by obtaining the emotion of each user within a preset area and performing statistics. And it is judged whether the number of users in the predetermined emotion category is greater than the preset user number threshold. If it is greater than the preset user number threshold, it can reflect the emotions of the entire audience, obtain the corresponding light and/or sound mode information, and adjust the sound and light.
  • the threshold of the preset number of users is preset by the manager. Preferably, it is set to 70-80% of the number of users in the preset area. For example, if there are 100 users in the preset area, the threshold of the preset number of users is 70-80.
  • the recognition of user emotions through the facial feature data is specifically:
  • the preset emotion recognition model is preset and obtained through training with a large amount of image data.
  • the emotion recognition model can be used to recognize emotions, and output the emotion categories that meet the conditions to obtain user emotions.
  • the method of training the model is the prior art, and this application will not repeat them one by one.
  • Fig. 4 shows a flow chart of the emotion calculation method of the present application.
  • the emotion recognition by the emotion recognition model includes:
  • S402 Compare the facial features of the user with the emotion category in the preset emotion recognition model
  • S406 Sort the emotion probability values of each emotion category, and select the highest emotion probability value
  • the purpose of comparing the facial features of the user with the emotion categories in the preset emotion recognition model is to obtain the probability of the user's emotion corresponding to each emotion category in the emotion recognition model. For example, if there are 7 emotion categories in the emotion recognition model, the probability of the user's facial features in these 7 emotion categories is calculated. Then sort the obtained 7 probability values, sort them from highest to bottom, and select the highest emotional probability value, which is the depressed mood value, with a value of 0.9. The highest emotion probability value is compared with the preset emotion value, wherein the preset emotion value is preset by the administrator in the background. Preferably, the preset emotion value is 0.8.
  • the highest emotion probability value is greater than the preset emotion value, it is confirmed that the emotion corresponding to the highest emotion probability value is the user emotion. If the highest probability value of depressed mood is 0.9 greater than 0.8, it is determined that the user's mood is depressed. Through this step, the user's emotion can be better confirmed, and the accuracy of judging the user's emotion can be higher.
  • the adjusting the light and/or sound includes:
  • the light and/or sound are adjusted in a linear manner according to the adjustment value per unit time.
  • the current state value of the light and/or sound needs to be obtained and compared with the adjustment state value to obtain the adjustment difference. For example, if the current intensity of the light is 80, to adjust the intensity of the light to 120, the difference is 40. After determining the difference, you need to determine the adjustment time to determine how long to complete the light and sound adjustment.
  • the light and/or sound are adjusted in a linear manner according to the adjustment value per unit time. The light and sound are adjusted in a linear manner, which is not easy for users to notice, and will not cause the effect of sound and light fluctuating strong and weak, which improves the user experience.
  • Figure 5 shows a block diagram of an adaptive adjustment system based on face recognition of the present application.
  • the second aspect of the present application also provides an adaptive adjustment system based on face recognition.
  • the system includes a memory 51, a processor 52, and a camera 53.
  • the memory includes a human-based
  • An adaptive adjustment method program for face recognition when the adaptive adjustment method program based on face recognition is executed by the processor, the following steps are implemented:
  • the light and/or sound mode information the light and/or sound are adjusted.
  • the camera device collects and judges the user's emotions on site.
  • the camera device can collect video and images, and can be a video camera, a camera, a mobile phone, or other devices that collect image data.
  • face recognition it can be collected in real time, or collected at predetermined intervals.
  • the predetermined time interval can be set to 30 seconds, and the camera device will collect image data every 30 seconds, and then perform face recognition on the collected image data to obtain facial feature data.
  • the emotions are happiness, surprise, anger, fear, disgust, sadness, etc.
  • the facial feature data is at least one of eye parameter values, eyebrow parameter values, nose parameter values, lip parameter values, and chin parameter values.
  • the user's emotions are compared with preset conditions to obtain corresponding light and/or sound mode information. Then control the lighting or sound of the scene to adjust to increase the user's experience.
  • the light adjustment can be to increase or decrease the intensity of the light, or to change the direction and angle of the illumination, or to change the area range of the light.
  • Sound adjustment can be to increase or decrease the intensity of the light, or to change the frequency of the sound.
  • the comparing the user's emotions with preset conditions to obtain corresponding light and/or sound mode information includes:
  • the corresponding light and/or sound mode information is obtained.
  • Each emotion category corresponds to light and/or sound mode information.
  • irritability corresponds to a set of light and sound mode adjustment information
  • pleasant mood corresponds to a set of light and sound mode adjustment information
  • surprise mood corresponds to a set of light and sound mode adjustment information.
  • duration of the user's emotions the current state of the user is determined, whether it has been irritable, or whether it has been irritable before and is now happy.
  • the preset duration is the time preset by the system, and you can choose a time range of 2 minutes, 5 minutes, etc.
  • 2 minutes is selected as the preset duration.
  • the corresponding light and/or sound mode information will be obtained to change the light and sound.
  • a small sample can be selected for judgment, that is, a user in a fixed area is selected for emotion judgment.
  • the preset area range is set in the area in front of the auditorium.
  • the number of users in each emotion category is obtained by obtaining the emotion of each user within a preset area and performing statistics. And it is judged whether the number of users in the predetermined emotion category is greater than the preset user number threshold. If it is greater than the preset user number threshold, it can reflect the emotions of the entire audience, obtain the corresponding light and/or sound mode information, and adjust the sound and light.
  • the threshold of the preset number of users is preset by the manager. Preferably, it is set to 70-80% of the number of users in the preset area. For example, if there are 100 users in the preset area, the threshold of the preset number of users is 70-80.
  • the recognition of user emotions through the facial feature data is specifically:
  • the preset emotion recognition model is preset and obtained through training with a large amount of image data.
  • the emotion recognition model can be used to recognize emotions, and output the emotion categories that meet the conditions to obtain user emotions.
  • the method of training the model is the prior art, and this application will not repeat them one by one.
  • performing emotion recognition through an emotion recognition model includes:
  • the highest emotion probability value is greater than the preset emotion value, it is confirmed that the emotion corresponding to the highest emotion probability value is the user emotion.
  • the purpose of comparing the facial features of the user with the emotion categories in the preset emotion recognition model is to obtain the probability of the user's emotion corresponding to each emotion category in the emotion recognition model. For example, if there are 7 emotion categories in the emotion recognition model, the probability of the user's facial features in these 7 emotion categories is calculated. Then sort the obtained 7 probability values, sort them from highest to bottom, and select the highest emotional probability value, which is the depressed mood value, with a value of 0.9. The highest emotion probability value is compared with the preset emotion value, wherein the preset emotion value is preset by the administrator in the background. Preferably, the preset emotion value is 0.8.
  • the highest emotion probability value is greater than the preset emotion value, it is confirmed that the emotion corresponding to the highest emotion probability value is the user emotion. If the highest probability value of depressed mood is 0.9 greater than 0.8, it is determined that the user's mood is depressed. Through this step, the user's emotion can be better confirmed, and the accuracy of judging the user's emotion can be higher.
  • the adjusting the light and/or sound includes:
  • the light and/or sound are adjusted in a linear manner according to the adjustment value per unit time.
  • the current state value of the light and/or sound needs to be obtained and compared with the adjustment state value to obtain the adjustment difference. For example, if the current intensity of the light is 80, to adjust the intensity of the light to 120, the difference is 40. After determining the difference, you need to determine the adjustment time to determine how long to complete the light and sound adjustment.
  • the light and/or sound are adjusted in a linear manner according to the adjustment value per unit time. The light and sound are adjusted in a linear manner, which is not easy for users to notice, and will not cause the effect of sound and light fluctuating strong and weak, which improves the user experience.
  • the third aspect of the present application also provides a computer-readable storage medium, the computer-readable storage medium includes a face recognition-based adaptive adjustment method program, the face recognition-based adaptive adjustment method program is processed When the device is executed, the steps of the adaptive adjustment method based on face recognition as described above are implemented.
  • adaptive light and sound adjustments can be performed on-site according to the user's emotions, which improves the user's sense of experience and makes on-site adjustments more intelligent.
  • This application uses the trained model to perform emotion recognition, which has higher accuracy and faster speed, and can obtain the user's emotional changes in real time; in addition, through the linear adjustment of the lights and sounds, it is not easy to appear sudden and weak lights and sounds , Making the user less noticeable, and improving the user's experience and hearing and visual comfort.
  • the disclosed device and method may be implemented in other ways.
  • the device embodiments described above are merely illustrative.
  • the division of the units is only a logical function division, and there may be other divisions in actual implementation, such as: multiple units or components can be combined, or It can be integrated into another system, or some features can be ignored or not implemented.
  • the coupling, or direct coupling, or communication connection between the components shown or discussed may be indirect coupling or communication connection through some interfaces, devices or units, and may be electrical, mechanical or other forms of.
  • the units described above as separate components may or may not be physically separate, and the components displayed as units may or may not be physical units; they may be located in one place or distributed on multiple network units; Some or all of the units can be selected according to actual needs to achieve the purpose of the solution of the embodiment.
  • the functional units in the embodiments of the present application can all be integrated into one processing unit, or each unit can be individually used as a unit, or two or more units can be integrated into one unit;
  • the unit can be implemented in the form of hardware, or in the form of hardware plus software functional units.
  • the foregoing program can be stored in a computer readable storage medium.
  • the execution includes The steps of the foregoing method embodiment; and the foregoing storage medium includes: removable storage devices, read-only memory (ROM, Read-Only Memory), random access memory (RAM, Random Access Memory), magnetic disks or optical disks, etc.
  • the medium storing the program code.
  • the above-mentioned integrated unit of this application is implemented in the form of a software function module and sold or used as an independent product, it can also be stored in a computer readable storage medium.
  • the computer software product is stored in a storage medium and includes several instructions for A computer device (which may be a personal computer, a server, or a network device, etc.) executes all or part of the methods described in the various embodiments of the present application.
  • the aforementioned storage media include: removable storage devices, ROM, RAM, magnetic disks, or optical disks and other media that can store program codes.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)

Abstract

一种基于人脸识别的自适应调节方法、***和可读存储介质,涉及一种生物识别技术,其中方法包括:对用户进行人脸识别,获取用户的面部特征数据(S102);通过所述面部特征数据识别出用户情绪(S104);将所述用户情绪与预设的条件进行比对,获取对应的灯光和/或声音模式信息(S106);根据所述灯光和/或声音模式信息,对灯光和/或声音进行调节(S108)。通过本方法,现场可以根据用户的情绪进行自适应的灯光和声音调节,提高了用户的体验感,并且使得现场的调节更加智能;通过训练的模型进行情绪识别,准确性更高,速度更快;通过对灯光和声音的线性调节,不容易出现灯光和声音的忽强忽弱,使得用户更不容易察觉,提高了用户的体验感和听觉视觉的舒适度。

Description

一种基于人脸识别的自适应调节方法、***和可读存储介质
本申请要求于2019年5月6日提交中国专利局,申请号为201910371003.9、发明名称为“一种基于人脸识别的自适应调节方法、***和可读存储介质”的中国专利申请的优先权,其内容通过引用结合在本申请中。
技术领域
本申请涉及一种生物识别技术,具体公开了一种基于人脸识别的自适应调节方法、***和可读存储介质。
背景技术
人脸识别是基于人的脸部特征信息进行身份识别的一种生物识别技术用摄像机或摄像头采集含有人脸的图像或视频流,并自动在图像中检测和跟踪人脸,并对检测到的人脸进行特征提取,与模板库中的人脸图像特征做比对,达到识别不同人身份的目的。包括:人脸图像的采集,人脸定位,人脸图像的预处理与特征提取,人脸识别。
面部表情识别在智能人机交互中有重要的意义,使机器人能够读懂人的情感,更具人性化。面部表情识别通过对静态的表情和动态变化的表情提取特征,并分析判断,获取人的情感信息,从而达到了解人的情绪,并基于表情属性满足人们的某些需要和提供某些服务。
通常在演出音乐厅等公共的演出场所,现场无法及时获取现场听众的表情和动作反馈,不当的灯光强度和音响大小都会影响到观众的情绪,降低观众的体验感。
发明内容
为了解决上述至少一个技术问题,本申请提出了一种基于人脸识别的自适应调节方法,包括:
对用户进行人脸识别,获取用户的面部特征数据;
通过所述面部特征数据识别出用户情绪;
将所述用户情绪与预设的条件进行比对,获取对应的灯光和/或声音模式信息;
根据所述灯光和/或声音模式信息,对灯光和/或声音进行调节。
本申请第二方面还提供了一种基于人脸识别的自适应调节***,该***包括:存储器、处理器及摄像装置,所述存储器中包括一种基于人脸识别的自适应调节方法程序,所述一种基于人脸识别的自适应调节方法程序被所述处理器执行时实现如下步骤:
对用户进行人脸识别,获取用户的面部特征数据;
通过所述面部特征数据识别出用户情绪;
将所述用户情绪与预设的条件进行比对,获取对应的灯光和/或声音模式信息;
根据所述灯光和/或声音模式信息,对灯光和/或声音进行调节。
本申请第三方面还提供了一种计算机可读存储介质,所述计算机可读存储介质中包括基于人脸识别的自适应调节方法程序,所述基于人脸识别的自适应调节方法程序被处理器执行时,实现如上述基于人脸识别的自适应调节方法的步骤。
通过本申请的基于人脸识别的自适应调节方案,现场可以根据用户的情绪进行自适应的灯光和声音调节,提高了用户的体验感,并且使得现场的调节更加智能。本申请通过训练的模型进行情绪识别,准确性更高,速度更快,可以实时的获取用户的情绪变化;另外,通过对灯光和声音的线 性调节,不容易出现灯光和声音的忽强忽弱,使得用户更不容易察觉,提高了用户的体验感和听觉视觉的舒适度。
本申请的附加方面和优点将在下面的描述部分中给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
图1示出了本申请基于人脸识别的自适应调节方法的流程图;
图2示出了本申请获取模式信息方法的流程图;
图3示出了本申请获取模式信息方法的流程图;
图4示出了本申请情绪计算方法的流程图;
图5示出了本申请基于人脸识别的自适应调节***的框图。
具体实施方式
为了能够更清楚地理解本申请的上述目的、特征和优点,下面结合附图和具体实施方式对本申请进行进一步的详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本申请,但是,本申请还可以采用其他不同于在此描述的其他方式来实施,因此,本申请的保护范围并不受下面公开的具体实施例的限制。
图1示出了本申请基于人脸识别的自适应调节方法的流程图。
如图1所示,本申请公开了一种基于人脸识别的自适应调节方法,包括:
S102,对用户进行人脸识别,获取用户的面部特征数据;
S104,通过所述面部特征数据识别出用户情绪;
S106,将所述用户情绪与预设的条件进行比对,获取对应的灯光和/或声音模式信息;
S108,根据所述灯光和/或声音模式信息,对灯光和/或声音进行调节。
需要说明的是,进行现场通过摄像装置对用户情绪的采集和判断,所述摄像装置可以进行视频和图像的采集,可以为摄像机、照相机、手机或其他采集图像数据的装置。在进行人脸识别的时候,可以实时采集,也可以间隔预定的时长进行采集。例如,可以设定预定的时间间隔为30秒,则摄像装置会每次间隔30秒采集一次图像数据,然后将采集的图像数据进行人脸识别,获取面部特征数据。其中,所述的情绪为高兴、惊讶、愤怒、恐惧、厌恶和悲伤等。
具体的,面部特征数据为眼睛参数值、眉毛参数值、鼻子参数值、嘴唇参数值和下巴参数值中的至少一项。
需要说明的是,在获取了用户的情绪之后,将所述用户情绪与预设的条件进行比对,获取对应的灯光和/或声音模式信息。再控制现场的灯光或音响进行调节,以增加用户的感受。其中,灯光调节可以是加强或减弱灯光强度,又或者是改变照射的方向和角度,又或者是改变灯光照射的区域范围等。声音调节可以是加强或减弱灯光强度,又或者是改变声响的频率等。本申请并不限制灯光和声音调节的范围和模式,任何进行灯光和声音的调节都将落入本申请的保护范围中。
图2示出了本申请获取模式信息方法的流程图,如图2所示,所述将所述用户情绪与预设的条件进行比对,获取对应的灯光和/或声音模式信息,包括:
S202,获取用户情绪,划分情绪类别;
S204,判断所述用户情绪的保持时间是否达到所属情绪类别的预设时长;
S206,若达到了预设时长,则获取对应的灯光和/或声音模式信息。
需要说明的是在获取了用户的情绪情况时,需要划分情绪类别,确定用户的情绪是愉悦还是烦躁等情绪,每个情绪类别中对应有灯光和/或声音 模式信息。例如,烦躁情绪对应有一组灯光和声音模式的调节信息;愉悦情绪对应有一组灯光和声音模式的调节信息;惊讶情绪对应有一组灯光和声音模式的调节信息。并且通过判断用户情绪的持续时间确定用户目前的状态,是一直烦躁,还是之前烦躁现在愉悦等状态。其中预设时长为***预先设置的时间,可以选择2分钟、5分钟等时间范围。优选的,选择2分钟作为预设时长。例如,在判断用户的情绪为烦躁时,检测到已经持续了2分钟,则将获取对应的灯光和/或声音模式信息,去改变灯光和声音。
图3示出了本申请获取模式信息方法的流程图,如图3所示,所述将所述用户情绪与预设的条件进行比对,获取对应的灯光和/或声音模式信息,包括:
S302,获取预设区域范围内每个用户的情绪,并进行统计,得到每个情绪类别下的用户数量;
S304,判断预定情绪类别下用户数量是否大于预设用户数量阈值;
S306,若大于预设用户数量阈值,则获取对应的灯光和/或声音模式信息。
需要说明的是,为了提高用户情绪获取的速率,并且保证全场观众情绪准确性情况下,可以选择小的样本进行判断,也就是说,选取一个固定区域的用户进行情绪的判断。优选的,预设区域范围设置在观众席前面的区域。在进行情绪判断时,通过获取预设区域范围内每个用户的情绪,进行统计,得到每个情绪类别下的用户数量。并且判断判断预定情绪类别下用户数量是否大于预设用户数量阈值。若大于预设用户数量阈值,则能反映出全场用户的情绪,获取对应的灯光和/或声音模式信息,进行声音和灯光的调节。所述预设用户数量的阈值由管理人员预先设定。优选的,设置为预设区域范围内所在用户数量的百分之70-80。例如,预设区域内的用户为100名,则预设用户数量的阈值为70-80。
根据本申请实施例,所述通过所述面部特征数据识别出用户情绪,具 体为:
将获取的用户的面部特征数据输入预设的情绪识别模型;
通过情绪识别模型进行情绪识别;
将满足条件的情绪类别输出,得到用户情绪。
需要说明的是预设的情绪识别模型为预先设置的,通过大量的图像数据进行训练得到。可通过情绪识别模型进行情绪的识别,将满足条件的情绪类别输出,得到用户情绪。训练模型的方法为现有技术,本申请不再一一赘述。
图4示出了本申请情绪计算方法的流程图,如图4所示,所述通过情绪识别模型进行情绪识别,包括:
S402,将用户的面部特征与预设情绪识别模型中的情绪类别进行比对;
S404,计算每个情绪类别的情绪概率值;
S406,将所述的每个情绪类别的情绪概率值进行排序,选出最高的情绪概率值;
S408,将所述最高的情绪概率值与所述的预设情绪值进行比较;
S410,若所述最高的情绪概率值大于所述的预设情绪值,则确认所述最高的情绪概率值对应的情绪为用户情绪。
需要说明的是,将用户的面部特征与预设情绪识别模型中的情绪类别进行比对是为了得到用户的情绪在情绪识别模型中每个情绪类别对应的概率。例如,在情绪识别模型中有7个情绪类别,则计算用户的面部特征在这7个情绪类别中的概率。然后将得到的7个概率值进行排序,按照从高到底的顺序进行排序,选出最高的情绪概率值,为郁闷情绪值,数值为0.9。将所述最高的情绪概率值与所述的预设情绪值进行比较,其中所述预设情绪值为管理员在后台预设的。优选的,所述预设情绪值为0.8。若所述最高的情绪概率值大于所述的预设情绪值,则确认所述最高的情绪概率值对应的情绪为用户情绪。最高的郁闷情绪概率值0.9大于0.8,则判定为用 户的情绪为郁闷。通过此步骤可以更好的确认用户的情绪,使得判断用户情绪的准确率更高。
根据本申请实施例,所述对灯光和/或声音进行调节,包括:
获取模式信息,根据所述模式信息判断调节时间和调节状态值;
获取将灯光和/或声音的当前状态值,与所述调节状态值进行比较,获取调节差值;
通过所述调节差值和调节时间得到单位时间调节值;
根据所述单位时间调节值以线性方式对灯光和/或声音进行调节。
需要说明的是,在确定了需要调节的灯光或者声音模式后,需要获取将灯光和/或声音的当前状态值,与所述调节状态值进行比较,获取调节差值。例如,灯光当前的强度为80,要调节灯光强度至120,则其差值为40。确定了差值后,则需要确定调节的时间,用以判断多久完成灯光和声音的调节。调节的时间可以是后台管理员自行设置的,也可以是每个情绪模式下对应的预设时长。例如,调节的时间为10秒。确定了调节时间之后,则要计算单位时间内的调节值。其单位时间调节值=调节差值/调节时间。例如,调节差值为40,调节时间为10秒,则单位时间调节值为40/10=4,也就是说每秒要调节的强度为4。最后根据所述单位时间调节值以线性方式对灯光和/或声音进行调节。通过线性的方式调节灯光和声音,用户不易察觉,不会造成声音和灯光忽强忽弱的效果,提高了用户体验感。
图5示出了本申请基于人脸识别的自适应调节***的框图。
如图5所示,本申请第二方面还提供了一种基于人脸识别的自适应调节***,该***包括:存储器51、处理器52及摄像装置53,所述存储器中包括一种基于人脸识别的自适应调节方法程序,所述一种基于人脸识别的自适应调节方法程序被所述处理器执行时实现如下步骤:
对用户进行人脸识别,获取用户的面部特征数据;
通过所述面部特征数据识别出用户情绪;
将所述用户情绪与预设的条件进行比对,获取对应的灯光和/或声音模式信息;
根据所述灯光和/或声音模式信息,对灯光和/或声音进行调节。
需要说明的是,进行现场通过摄像装置对用户情绪的采集和判断,所述摄像装置可以进行视频和图像的采集,可以为摄像机、照相机、手机或其他采集图像数据的装置。在进行人脸识别的时候,可以实时采集,也可以间隔预定的时长进行采集。例如,可以设定预定的时间间隔为30秒,则摄像装置会每次间隔30秒采集一次图像数据,然后将采集的图像数据进行人脸识别,获取面部特征数据。其中,所述的情绪为高兴、惊讶、愤怒、恐惧、厌恶和悲伤等。
具体的,面部特征数据为眼睛参数值、眉毛参数值、鼻子参数值、嘴唇参数值和下巴参数值中的至少一项。
需要说明的是,在获取了用户的情绪之后,将所述用户情绪与预设的条件进行比对,获取对应的灯光和/或声音模式信息。再控制现场的灯光或音响进行调节,以增加用户的感受。其中,灯光调节可以是加强或减弱灯光强度,又或者是改变照射的方向和角度,又或者是改变灯光照射的区域范围等。声音调节可以是加强或减弱灯光强度,又或者是改变声响的频率等。本申请并不限制灯光和声音调节的范围和模式,任何进行灯光和声音的调节都将落入本申请的保护范围中。
根据本申请实施例,所述将所述用户情绪与预设的条件进行比对,获取对应的灯光和/或声音模式信息,包括:
获取用户情绪,划分情绪类别;
判断所述用户情绪的保持时间是否达到所属情绪类别的预设时长;
若达到了预设时长,则获取对应的灯光和/或声音模式信息;或
获取预设区域范围内每个用户的情绪,并进行统计,得到每个情绪类别下的用户数量;
判断预定情绪类别下用户数量是否大于预设用户数量阈值;
若大于预设用户数量阈值,则获取对应的灯光和/或声音模式信息。
需要说明的是在获取了用户的情绪情况时,需要划分情绪类别,确定用户的情绪是愉悦还是烦躁等情绪,每个情绪类别中对应有灯光和/或声音模式信息。例如,烦躁情绪对应有一组灯光和声音模式的调节信息;愉悦情绪对应有一组灯光和声音模式的调节信息;惊讶情绪对应有一组灯光和声音模式的调节信息。并且通过判断用户情绪的持续时间确定用户目前的状态,是一直烦躁,还是之前烦躁现在愉悦等状态。其中预设时长为***预先设置的时间,可以选择2分钟、5分钟等时间范围。优选的,选择2分钟作为预设时长。例如,在判断用户的情绪为烦躁时,检测到已经持续了2分钟,则将获取对应的灯光和/或声音模式信息,去改变灯光和声音。
需要说明的是,为了提高用户情绪获取的速率,并且保证全场观众情绪准确性情况下,可以选择小的样本进行判断,也就是说,选取一个固定区域的用户进行情绪的判断。优选的,预设区域范围设置在观众席前面的区域。在进行情绪判断时,通过获取预设区域范围内每个用户的情绪,进行统计,得到每个情绪类别下的用户数量。并且判断判断预定情绪类别下用户数量是否大于预设用户数量阈值。若大于预设用户数量阈值,则能反映出全场用户的情绪,获取对应的灯光和/或声音模式信息,进行声音和灯光的调节。所述预设用户数量的阈值由管理人员预先设定。优选的,设置为预设区域范围内所在用户数量的百分之70-80。例如,预设区域内的用户为100名,则预设用户数量的阈值为70-80。
根据本申请实施例,所述通过所述面部特征数据识别出用户情绪,具体为:
将获取的用户的面部特征数据输入预设的情绪识别模型;
通过情绪识别模型进行情绪识别;
将满足条件的情绪类别输出,得到用户情绪。
需要说明的是预设的情绪识别模型为预先设置的,通过大量的图像数据进行训练得到。可通过情绪识别模型进行情绪的识别,将满足条件的情绪类别输出,得到用户情绪。训练模型的方法为现有技术,本申请不再一一赘述。
根据本申请实施例,所述通过情绪识别模型进行情绪识别,包括:
将用户的面部特征与预设情绪识别模型中的情绪类别进行比对;
计算每个情绪类别的情绪概率值;
将所述的每个情绪类别的情绪概率值进行排序,选出最高的情绪概率值;
将所述最高的情绪概率值与所述的预设情绪值进行比较;
若所述最高的情绪概率值大于所述的预设情绪值,则确认所述最高的情绪概率值对应的情绪为用户情绪。
需要说明的是,将用户的面部特征与预设情绪识别模型中的情绪类别进行比对是为了得到用户的情绪在情绪识别模型中每个情绪类别对应的概率。例如,在情绪识别模型中有7个情绪类别,则计算用户的面部特征在这7个情绪类别中的概率。然后将得到的7个概率值进行排序,按照从高到底的顺序进行排序,选出最高的情绪概率值,为郁闷情绪值,数值为0.9。将所述最高的情绪概率值与所述的预设情绪值进行比较,其中所述预设情绪值为管理员在后台预设的。优选的,所述预设情绪值为0.8。若所述最高的情绪概率值大于所述的预设情绪值,则确认所述最高的情绪概率值对应的情绪为用户情绪。最高的郁闷情绪概率值0.9大于0.8,则判定为用户的情绪为郁闷。通过此步骤可以更好的确认用户的情绪,使得判断用户情绪的准确率更高。
根据本申请实施例,所述对灯光和/或声音进行调节,包括:
获取模式信息,根据所述模式信息判断调节时间和调节状态值;
获取将灯光和/或声音的当前状态值,与所述调节状态值进行比较,获 取调节差值;
通过所述调节差值和调节时间得到单位时间调节值;
根据所述单位时间调节值以线性方式对灯光和/或声音进行调节。
需要说明的是,在确定了需要调节的灯光或者声音模式后,需要获取将灯光和/或声音的当前状态值,与所述调节状态值进行比较,获取调节差值。例如,灯光当前的强度为80,要调节灯光强度至120,则其差值为40。确定了差值后,则需要确定调节的时间,用以判断多久完成灯光和声音的调节。调节的时间可以是后台管理员自行设置的,也可以是每个情绪模式下对应的预设时长。例如,调节的时间为10秒。确定了调节时间之后,则要计算单位时间内的调节值。其单位时间调节值=调节差值/调节时间。例如,调节差值为40,调节时间为10秒,则单位时间调节值为40/10=4,也就是说每秒要调节的强度为4。最后根据所述单位时间调节值以线性方式对灯光和/或声音进行调节。通过线性的方式调节灯光和声音,用户不易察觉,不会造成声音和灯光忽强忽弱的效果,提高了用户体验感。
本申请第三方面还提供了一种计算机可读存储介质,所述计算机可读存储介质中包括基于人脸识别的自适应调节方法程序,所述基于人脸识别的自适应调节方法程序被处理器执行时,实现如上述任一所述的基于人脸识别的自适应调节方法的步骤。
通过本申请的基于人脸识别的自适应调节方案,现场可以根据用户的情绪进行自适应的灯光和声音调节,提高了用户的体验感,并且使得现场的调节更加智能。本申请通过训练的模型进行情绪识别,准确性更高,速度更快,可以实时的获取用户的情绪变化;另外,通过对灯光和声音的线性调节,不容易出现灯光和声音的忽强忽弱,使得用户更不容易察觉,提高了用户的体验感和听觉视觉的舒适度。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例 如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个***,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元;既可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本申请各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本申请上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本申请各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘 等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (20)

  1. 一种基于人脸识别的自适应调节方法,其特征在于,包括:
    对用户进行人脸识别,获取用户的面部特征数据;
    通过所述面部特征数据识别出用户情绪;
    将所述用户情绪与预设的条件进行比对,获取对应的灯光和/或声音模式信息;
    根据所述灯光和/或声音模式信息,对灯光和/或声音进行调节。
  2. 根据权利要求1所述的一种基于人脸识别的自适应调节方法,其特征在于,所述将所述用户情绪与预设的条件进行比对,获取对应的灯光和/或声音模式信息,包括:
    获取用户情绪,划分情绪类别;
    判断所述用户情绪的保持时间是否达到所属情绪类别的预设时长;
    若达到了预设时长,则获取对应的灯光和/或声音模式信息。
  3. 根据权利要求1所述的一种基于人脸识别的自适应调节方法,其特征在于,所述将所述用户情绪与预设的条件进行比对,获取对应的灯光和/或声音模式信息,包括:
    获取预设区域范围内每个用户的情绪,并进行统计,得到每个情绪类别下的用户数量;
    判断预定情绪类别下用户数量是否大于预设用户数量阈值;
    若大于预设用户数量阈值,则获取对应的灯光和/或声音模式信息。
  4. 根据权利要求1所述的一种基于人脸识别的自适应调节方法,其特征在于,所述通过所述面部特征数据识别出用户情绪,具体为:
    将获取的用户的面部特征数据输入预设的情绪识别模型;
    通过情绪识别模型进行情绪识别;
    将满足条件的情绪类别输出,得到用户情绪。
  5. 根据权利要求2所述的一种基于人脸识别的自适应调节方法,其特征在于,所述通过所述面部特征数据识别出用户情绪,具体为:
    将获取的用户的面部特征数据输入预设的情绪识别模型;
    通过情绪识别模型进行情绪识别;
    将满足条件的情绪类别输出,得到用户情绪。
  6. 根据权利要求3所述的一种基于人脸识别的自适应调节方法,其特征在于,所述通过所述面部特征数据识别出用户情绪,具体为:
    将获取的用户的面部特征数据输入预设的情绪识别模型;
    通过情绪识别模型进行情绪识别;
    将满足条件的情绪类别输出,得到用户情绪。
  7. 根据权利要求4所述的一种基于人脸识别的自适应调节方法,其特征在于,所述通过情绪识别模型进行情绪识别,包括:
    将用户的面部特征与预设情绪识别模型中的情绪类别进行比对;
    计算每个情绪类别的情绪概率值;
    将所述的每个情绪类别的情绪概率值进行排序,选出最高的情绪概率值;
    将所述最高的情绪概率值与所述的预设情绪值进行比较;
    若所述最高的情绪概率值大于所述的预设情绪值,则确认所述最高的情绪概率值对应的情绪为用户情绪。
  8. 根据权利要求5所述的一种基于人脸识别的自适应调节方法,其特征在于,所述通过情绪识别模型进行情绪识别,包括:
    将用户的面部特征与预设情绪识别模型中的情绪类别进行比对;
    计算每个情绪类别的情绪概率值;
    将所述的每个情绪类别的情绪概率值进行排序,选出最高的情绪概率值;
    将所述最高的情绪概率值与所述的预设情绪值进行比较;
    若所述最高的情绪概率值大于所述的预设情绪值,则确认所述最高的情绪概率值对应的情绪为用户情绪。
  9. 根据权利要求6所述的一种基于人脸识别的自适应调节方法,其特征在于,所述通过情绪识别模型进行情绪识别,包括:
    将用户的面部特征与预设情绪识别模型中的情绪类别进行比对;
    计算每个情绪类别的情绪概率值;
    将所述的每个情绪类别的情绪概率值进行排序,选出最高的情绪概率值;
    将所述最高的情绪概率值与所述的预设情绪值进行比较;
    若所述最高的情绪概率值大于所述的预设情绪值,则确认所述最高的情绪概率值对应的情绪为用户情绪。
  10. 根据权利要求1所述的一种基于人脸识别的自适应调节方法,其特征在于,所述对灯光和/或声音进行调节,包括:
    获取模式信息,根据所述模式信息判断调节时间和调节状态值;
    获取将灯光和/或声音的当前状态值,与所述调节状态值进行比较,获取调节差值;
    通过所述调节差值和调节时间得到单位时间调节值;
    根据所述单位时间调节值以线性方式对灯光和/或声音进行调节。
  11. 一种基于人脸识别的自适应调节***,其特征在于,该***包括:存储器、处理器及摄像装置,所述存储器中包括一种基于人脸识别的自适应调节方法程序,所述一种基于人脸识别的自适应调节方法程序被所述处理器执行时实现如下步骤:
    对用户进行人脸识别,获取用户的面部特征数据;
    通过所述面部特征数据识别出用户情绪;
    将所述用户情绪与预设的条件进行比对,获取对应的灯光和/或声音模式信息;
    根据所述灯光和/或声音模式信息,对灯光和/或声音进行调节。
  12. 根据权利要求11所述的一种基于人脸识别的自适应调节***,其特征在于,所述将所述用户情绪与预设的条件进行比对,获取对应的灯光和/或声音模式信息,包括:
    获取用户情绪,划分情绪类别;
    判断所述用户情绪的保持时间是否达到所属情绪类别的预设时长;
    若达到了预设时长,则获取对应的灯光和/或声音模式信息;或
    获取预设区域范围内每个用户的情绪,并进行统计,得到每个情绪类别下的用户数量;
    判断预定情绪类别下用户数量是否大于预设用户数量阈值;
    若大于预设用户数量阈值,则获取对应的灯光和/或声音模式信息。
  13. 根据权利要求11所述的一种基于人脸识别的自适应调节***,所述通过所述面部特征数据识别出用户情绪,具体为:
    将获取的用户的面部特征数据输入预设的情绪识别模型;
    通过情绪识别模型进行情绪识别;
    将满足条件的情绪类别输出,得到用户情绪。
  14. 根据权利要求12所述的一种基于人脸识别的自适应调节***,所述通过所述面部特征数据识别出用户情绪,具体为:
    将获取的用户的面部特征数据输入预设的情绪识别模型;
    通过情绪识别模型进行情绪识别;
    将满足条件的情绪类别输出,得到用户情绪。
  15. 根据权利要求11所述的一种基于人脸识别的自适应调节***,其特征在于,所述对灯光和/或声音进行调节,包括:
    获取模式信息,根据所述模式信息判断调节时间和调节状态值;
    获取将灯光和/或声音的当前状态值,与所述调节状态值进行比较,获取调节差值;
    通过所述调节差值和调节时间得到单位时间调节值;
    根据所述单位时间调节值以线性方式对灯光和/或声音进行调节。
  16. 一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中包括基于人脸识别的自适应调节方法程序,所述基于人脸识别的自适应调节方法程序被处理器执行时,实现如下步骤:
    对用户进行人脸识别,获取用户的面部特征数据;
    通过所述面部特征数据识别出用户情绪;
    将所述用户情绪与预设的条件进行比对,获取对应的灯光和/或声音模式信息;
    根据所述灯光和/或声音模式信息,对灯光和/或声音进行调节。
  17. 根据权利要求16所述的计算机可读存储介质,其特征在于,所述将所述用户情绪与预设的条件进行比对,获取对应的灯光和/或声音模式信息,包括:
    获取用户情绪,划分情绪类别;
    判断所述用户情绪的保持时间是否达到所属情绪类别的预设时长;
    若达到了预设时长,则获取对应的灯光和/或声音模式信息。
  18. 根据权利要求16所述的计算机可读存储介质,其特征在于,所述通过所述面部特征数据识别出用户情绪,具体为:
    将获取的用户的面部特征数据输入预设的情绪识别模型;
    通过情绪识别模型进行情绪识别;
    将满足条件的情绪类别输出,得到用户情绪。
  19. 根据权利要求18所述的计算机可读存储介质,其特征在于,所述通过情绪识别模型进行情绪识别,包括:
    将用户的面部特征与预设情绪识别模型中的情绪类别进行比对;
    计算每个情绪类别的情绪概率值;
    将所述的每个情绪类别的情绪概率值进行排序,选出最高的情绪概率 值;
    将所述最高的情绪概率值与所述的预设情绪值进行比较;
    若所述最高的情绪概率值大于所述的预设情绪值,则确认所述最高的情绪概率值对应的情绪为用户情绪。
  20. 根据权利要求16所述的计算机可读存储介质,其特征在于,所述对灯光和/或声音进行调节,包括:
    获取模式信息,根据所述模式信息判断调节时间和调节状态值;
    获取将灯光和/或声音的当前状态值,与所述调节状态值进行比较,获取调节差值;
    通过所述调节差值和调节时间得到单位时间调节值;
    根据所述单位时间调节值以线性方式对灯光和/或声音进行调节。
PCT/CN2019/103595 2019-05-06 2019-08-30 一种基于人脸识别的自适应调节方法、***和可读存储介质 WO2020224126A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910371003.9 2019-05-06
CN201910371003.9A CN110287766B (zh) 2019-05-06 2019-05-06 一种基于人脸识别自适应调节方法、***和可读存储介质

Publications (1)

Publication Number Publication Date
WO2020224126A1 true WO2020224126A1 (zh) 2020-11-12

Family

ID=68001883

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2019/103595 WO2020224126A1 (zh) 2019-05-06 2019-08-30 一种基于人脸识别的自适应调节方法、***和可读存储介质

Country Status (2)

Country Link
CN (1) CN110287766B (zh)
WO (1) WO2020224126A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112633215A (zh) * 2020-12-29 2021-04-09 安徽兰臣信息科技有限公司 一种用于儿童行为情绪识别的嵌入式影像采集装置
CN116367390A (zh) * 2023-05-31 2023-06-30 深圳憨厚科技有限公司 一种照明状态动态调节方法、装置和智能电灯
CN117641667A (zh) * 2023-09-12 2024-03-01 深圳市卡能光电科技有限公司 氛围灯亮度智能控制方法及***
CN118019194A (zh) * 2024-04-08 2024-05-10 深圳市华电照明有限公司 灯光参数自动调节方法、装置、设备及存储介质

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113691900B (zh) * 2020-04-20 2024-04-30 浙江德方智能科技有限公司 一种具有情感分析的灯光音响管理方法和***
CN111835984B (zh) * 2020-07-24 2023-02-07 中国平安人寿保险股份有限公司 智能补光方法、装置、电子设备及存储介质
CN114681258B (zh) * 2020-12-25 2024-04-30 深圳Tcl新技术有限公司 一种自适应调整按摩模式的方法及按摩设备
CN113490302A (zh) * 2021-07-19 2021-10-08 厦门狄耐克智能科技股份有限公司 一种基于体征数据进行灯光控制的方法、***、设备
CN115016308B (zh) * 2022-06-27 2023-10-13 江苏振宁半导体研究院有限公司 一种光强强度的可视化方法
CN117593949B (zh) * 2024-01-19 2024-03-29 成都金都超星天文设备有限公司 一种用于天象仪运行演示天象的控制方法、设备及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120120219A1 (en) * 2010-11-15 2012-05-17 Hon Hai Precision Industry Co., Ltd. Electronic device and emotion management method using the same
CN104768309A (zh) * 2015-04-23 2015-07-08 天脉聚源(北京)传媒科技有限公司 一种根据用户情绪调节灯光的方法及装置
CN104851437A (zh) * 2015-04-28 2015-08-19 广东欧珀移动通信有限公司 一种歌曲播放方法及终端
CN106936991A (zh) * 2017-03-03 2017-07-07 深圳市金立通信设备有限公司 一种自动调节音量的方法及终端
CN108434757A (zh) * 2018-05-25 2018-08-24 深圳市零度智控科技有限公司 智能玩具控制方法、智能玩具以及计算机可读存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105050247B (zh) * 2015-06-24 2017-06-23 河北工业大学 基于表情模型识别的灯光智能调节***及其方法
CN106804076B (zh) * 2017-02-28 2018-06-08 深圳市喜悦智慧实验室有限公司 一种智能家居的照明***
CN108875464A (zh) * 2017-05-16 2018-11-23 南京农业大学 一种基于三维人脸情绪识别的灯光音乐控制***及控制方法
CN107609480A (zh) * 2017-08-10 2018-01-19 青岛萨纳斯新能源科技有限公司 一种基于实时视频检测表情的公共安全视频监测算法
CN208353483U (zh) * 2018-05-11 2019-01-08 广州镭威视安防科技有限公司 一种基于脸部情绪识别的智能安防***

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120120219A1 (en) * 2010-11-15 2012-05-17 Hon Hai Precision Industry Co., Ltd. Electronic device and emotion management method using the same
CN104768309A (zh) * 2015-04-23 2015-07-08 天脉聚源(北京)传媒科技有限公司 一种根据用户情绪调节灯光的方法及装置
CN104851437A (zh) * 2015-04-28 2015-08-19 广东欧珀移动通信有限公司 一种歌曲播放方法及终端
CN106936991A (zh) * 2017-03-03 2017-07-07 深圳市金立通信设备有限公司 一种自动调节音量的方法及终端
CN108434757A (zh) * 2018-05-25 2018-08-24 深圳市零度智控科技有限公司 智能玩具控制方法、智能玩具以及计算机可读存储介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112633215A (zh) * 2020-12-29 2021-04-09 安徽兰臣信息科技有限公司 一种用于儿童行为情绪识别的嵌入式影像采集装置
CN116367390A (zh) * 2023-05-31 2023-06-30 深圳憨厚科技有限公司 一种照明状态动态调节方法、装置和智能电灯
CN116367390B (zh) * 2023-05-31 2023-08-15 深圳憨厚科技有限公司 一种照明状态动态调节方法、装置和智能电灯
CN117641667A (zh) * 2023-09-12 2024-03-01 深圳市卡能光电科技有限公司 氛围灯亮度智能控制方法及***
CN118019194A (zh) * 2024-04-08 2024-05-10 深圳市华电照明有限公司 灯光参数自动调节方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN110287766A (zh) 2019-09-27
CN110287766B (zh) 2024-07-05

Similar Documents

Publication Publication Date Title
WO2020224126A1 (zh) 一种基于人脸识别的自适应调节方法、***和可读存储介质
US20220317641A1 (en) Device control method, conflict processing method, corresponding apparatus and electronic device
US8064649B2 (en) Techniques and apparatus for increasing accuracy of iris authentication by utilizing a plurality of iris images having different pupil diameter/iris diameter ratios
CN107272607A (zh) 一种智能家居控制***及方法
CN105118257B (zh) 智能控制***及方法
CN111683263B (zh) 直播指导方法、装置、设备及计算机可读存储介质
KR101872635B1 (ko) 메이크업 자동 평가 시스템 및 그의 동작 방법
CN104170374A (zh) 在视频会议期间修改参与者的外观
CN110022454B (zh) 一种在视频会议中识别身份的方法及相关设备
US9215411B2 (en) Enhancing video conferences
CN111541961B (zh) 一种感应式灯光音响管理***和方法
CN117238322B (zh) 一种基于智能感知的自适应语音调控方法及***
CN108648314B (zh) 一种基于智能云锁的用户表情互动方法及***
JP7371759B2 (ja) サーバ装置、会議支援システム、会議支援方法及びプログラム
CN116709162B (zh) 音频处理方法及相关设备
WO2023185007A1 (zh) 一种睡眠场景设置方法及装置
CN116560512A (zh) 虚拟数字人交互方法、电子设备、***及存储介质
CN116261009A (zh) 智能转化影视受众的视频检测方法、装置、设备及介质
CN115175415A (zh) 数字孪生光线调整方法、装置和***
CN114727119B (zh) 直播连麦控制方法、装置及存储介质
CN113038257B (zh) 音量调节方法、装置、智能电视及计算机可读存储介质
JP2005199373A (ja) コミュニケーション装置及びコミュニケーション方法
CN112333531A (zh) 音频数据播放方法、设备及可读存储介质
CN111383326A (zh) 一种多维虚拟人物实现的方法及其装置
CN117333800B (zh) 一种基于人工智能的跨平台内容运营优化方法及***

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19927967

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19927967

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 19927967

Country of ref document: EP

Kind code of ref document: A1