CN112218414A - 一种自适应设备亮度调节的方法及*** - Google Patents

一种自适应设备亮度调节的方法及*** Download PDF

Info

Publication number
CN112218414A
CN112218414A CN202010934906.6A CN202010934906A CN112218414A CN 112218414 A CN112218414 A CN 112218414A CN 202010934906 A CN202010934906 A CN 202010934906A CN 112218414 A CN112218414 A CN 112218414A
Authority
CN
China
Prior art keywords
module
data
face
emotion
lighting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010934906.6A
Other languages
English (en)
Inventor
鲁广玲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Feihe Electric Appliance Co ltd
Original Assignee
Nanjing Feihe Electric Appliance Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Feihe Electric Appliance Co ltd filed Critical Nanjing Feihe Electric Appliance Co ltd
Priority to CN202010934906.6A priority Critical patent/CN112218414A/zh
Publication of CN112218414A publication Critical patent/CN112218414A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/115Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
    • H05B47/13Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings by using passive infrared detectors
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/165Controlling the light source following a pre-assigned programmed sequence; Logic control [LC]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)

Abstract

本发明提出了一种自适应设备亮度调节的方法及***,通过利用基于深度学习的神经网络识别人脸状态,通过对采集到的信息比拟出人脸心情从而调动照明模块对照明设备的亮灭状态;其中实现***包括人脸识别模块、数据处理模块、照明设备控制模块。本发明通过识别人脸情绪状态,控制相适应照明模块的灯光温差,提高用户体验和舒适度。

Description

一种自适应设备亮度调节的方法及***
技术领域
本发明涉及一种自适应设备亮度调节的方法及***,特别是涉及一种光亮度自适应调节领域。
背景技术
随着智能设备的涌入和生活水平提高以及对舒适体验感的追求下,人们对空间舒适度的要求也在日益提高。
在互联网技术的大力推进下,智能家电逐渐进入大众生活,在快节奏的生活压力下,房间的灯光设置对于心理的安抚也是不同的,所以如何通过智能化的灯光设置及改进是有必要的。但现有技术中,对室内灯光控制依旧采用为墙壁式开关方式,须通过认为的设置才可达到灯光设置的目的。
发明内容
发明目的:一个目的是提出一种自适应设备亮度调节的方法,以解决现有技术存在的上述问题。进一步目的是提出一种实现上述方法的***。
技术方案:一种自适应设备亮度调节的方法包括以下步骤:
步骤一:获取用户面部信息;
步骤二:将获取的面部信息传输至情绪识别模型进行人物心情模拟,并将模拟结果传输给数据控制中心;
步骤三:调动数据控制中心对照明设备进行开启状态的调整;
在进一步的实施例中,所述步骤一进一步为:面部信息由摄像设备获取,为确保对人物面部姿态的准确把握,对人物呈现状态的提取为人物进入拍摄设备后一分钟的照片拍摄,并将呈现最多的面部状态作为用户入户时的心情等同状态;
在进一步的实施例中,所述步骤二进一步为:对人物的面部情绪的模拟为通过深度学习的结果呈现,其中利用机器有监督的学习首先对人物面部姿态进行分类,并将最终的结果通过网络传输至数据控制中心。
对卷积神经网络的情绪识别模型进行训练时,采用的训练图片集包含各种场景下含有人脸的照片,且均已csv格式进行存储,同时将csv文件转换为单通道灰度图片并根据情绪标签将其分类在不同的文件夹中。
为减少图片一次性载入内存出现的训练过程冗长,及空间复杂度的加深,本发明采用的数据读取方式为建立队列,通过外部磁盘读取部分数据。通过实验表明,运行时一次载入部分数据载入速度快了数十倍,同时训练过程中从内存读取数据,训练过程的速度也未收到影响。
卷积神经网络模型的搭建为五层网络,包含4层步长为1的卷积层、3层步长为2的池化层和两层全连接层,模型的训练具体为通过ImageDataGenerator类对图片的水平翻转、亮度调节、饱和度调节、随机剪裁操作生成一个批次的图片,并对每个批次的训练图片进行数据增强。池化层在输出数据量过大时,对数据进行降维度。
当输入图像的尺寸为m*m,输出图像为n*n,零填充个数为p,卷积核为f*f,互动步长为s,则输出尺寸为:
Figure BDA0002671582120000021
池化层不使用零填充,则输出尺寸为:
Figure BDA0002671582120000022
训练过程中出现涉及的损失函数为预测的情绪标签结果与自定义对应标签结果的误差,其表示为:
Figure BDA0002671582120000023
其中M为样本个数,N为特征点数,Υn为不同的权重,‖*‖为特征点的距离,将Υn进一步细化为:
Figure BDA0002671582120000024
其中当可见度越高时,权重越大,C表示不同的人脸类别数,即含有侧脸、正脸、抬头、低头,w表示与类别对应的给定权重。
优化时采用随机梯度下降,梯度更新迭代只用一个训练数据更新参数,即采用只更新一次,减少相似样本出现时产生的数据冗余,并且增加新的样本:
Figure BDA0002671582120000025
其中η表示学习率,θ表示需要更新的权重参数,
Figure BDA0002671582120000026
表示损失函数Loss关于θ的梯度。
激活函数为带泄露单元的线性整流函数,即与普通的线性整流函数相比,给负值赋予了一个非零斜率:
f(x)=max(0,x)+leak*min(0,x)
其中leak为一个很小的常数,使得负轴的信息不会全部丢失。
用户表情实时识别时,首先加载训练好的模型,然后将接收到的人脸照片放入情绪识别模型中,通过特征标识的提取找到对应的情绪标签,并将情绪标签结果发送至数据控制中心。
在进一步的实施例中,所述步骤三进一步为:数据控制中心将接收步骤二中传输过来的数据以及输出控制照明设备的指令。
其中数据指令的调控为调用已编辑好的硬件编码,单片机通过接收到的指令判断对应的指令调控代码并控制照明灯具进行亮灭的调控。其中硬件编码通过定义0、1进行照明设备的亮灭标识,当标识为1时处于照明状态,0时处于关闭状态,每个不同的照明设备均对应一个编码,不同的组合可以呈现出不同的视觉效果。
一种自适应设备亮度调节的***用于实现上述方法,其中包含:
用于采集人脸面部信息的第一模块,该模块包含拍摄设备、红外线检测设备。
用于进行数据处理的第二模块,该模块用于接收模块一传输过来的人脸图片,并将该图片输入创建的模型中进行情绪识别,并将识别出的结果发送出去。
用于控制照明设备的第三模块,该模块包含用于接收第二模块产生的指令并进行照明设备状态调控指令的生成并传输出去的单片机。
用于进行照明的第四模块,该模块包含照明灯具和墙壁式开关。
其中第一模块中将人脸面部信息采集模块中的拍摄设备置于入户时的正对面,并通过安装的摄像设备获取,并将采集时间控制在一分钟,筛选这个时间段内出现频率最高的面部状态作为用户入户时的情绪表达依据图片。红外线检测设备置于入户门里侧,当用户进入时,通过红外线检测到人物时触发拍摄设备进行运作。
第二模块具体为将获取的面部信息传输至情绪识别模型进行人物心情模拟,并将模拟结果传输给数据控制中心。其中对人物的面部情绪的模拟为通过深度学习的结果呈现,其中利用机器有监督的学习首先对人物面部姿态进行分类,其中深度学习为利用卷积神经网络模型的训练以及面部表情的识别,最终输出图片中人物的情绪,并将最终的结果通过网络传输至数据控制中心。
对卷积神经网络的情绪识别模型进行训练时,采用的训练图片集均已csv格式进行存储,同时将csv文件转换为单通道灰度图片并根据情绪标签将其分类在不同的文件夹中。
为减少图片一次性载入内存出现的训练过程冗长,及空间复杂度的加深,本发明采用的数据读取方式为建立队列,通过外部磁盘读取部分数据。通过实验表明,运行时一次载入部分数据载入速度快了数十倍,同时训练过程中从内存读取数据,训练过程的速度也未收到影响。
卷积神经网络模型的搭建为五层网络,包含4层步长为1的卷积层、3层步长为2的池化层和两层全连接层,模型的训练具体为通过对图片的水平翻转、亮度调节、饱和度调节、随机剪裁进行数据增强。
用户表情实时识别时,首先加载训练好的模型,然后将接收到的人脸照片放入情绪识别模型中,通过特征标识的提取找到对应的情绪标签,并将情绪标签结果发送至数据控制中心。
第三模块中单片机通过接收到的指令判断对应的指令调控代码并控制照明灯具进行亮灭的调控。其中硬件编码通过定义0、1进行照明设备的亮灭标识,当标识为1时处于照明状态,0时处于关闭状态,每个不同的照明设备均对应一个编码,不同的组合可以呈现出不同的视觉效果。
第四模块包括多个布局不同的照明设备,所述照明设备包含中心灯及围绕所述中心灯的环绕灯,其中涉及的照明设备均含有不同强度和不同颜色的外表,通过第三模块传输过来的不同组合的亮灭状态标识呈现不同的视觉效果。同时该模块还包含墙壁式开关,当用户想根据自己调控灯光时,可根据自身的喜好对照明设备进行不同状态的调控,且墙壁式开关的控制力强于智能调控。
有益效果:本发明提出了一种自适应设备亮度调节的方法及实现该方法的***,通过利用基于深度学习的神经网络识别人脸状态,通过对采集到的信息比拟出人脸心情从而调动照明模块对照明设备的亮灭状态;其中实现***包括人脸识别模块、数据处理模块、照明设备控制模块。本发明通过识别人脸情绪状态,实现控制相适应照明模块的灯光温差,从而根据心情调控照明光线安抚心理,达到提高用户体验和舒适度的目的。
附图说明
图1为本发明的实现方法流程示意图。
具体实施方式
申请人认为,现有技术的发展下,对照明设备的调控尚处于墙壁式开关的状态,在智能化家居的涌入下,人们对生活舒适度的追求也在不断提高,所以根据情绪调控照明设备时有必要的。
为解决现有技术存在的问题,本发明通过一种自适应设备亮度调节的方法及实现***实现针对用户心情自动开启照明设备的目的。
下面通过实施例,并结合附图对本方案做进一步具体说明。
在本申请中,我们提出了一种自适应设备亮度调节的方法及实现该方法的***,其中包含的一种自适应设备亮度调节的方法,具体为包括以下步骤:
步骤一:获取用户面部信息;面部信息由摄像设备获取,为确保对人物面部姿态的准确把握,对人物呈现状态的提取为人物进入拍摄设备后一分钟的照片拍摄,且照片数量大于30张,通过面部特征识别,并将出现最多的面部状态所在照片作为用户入户时的心情等同状态下的照片。
步骤二:将获取的面部信息传输至情绪识别模型进行人物心情模拟,并将模拟结果传输给数据控制中心,具体为对人物的面部情绪的模拟为通过深度学习的结果呈现,其中利用机器有监督的学习首先对人物面部姿态进行分类,其中深度学习为利用卷积神经网络模型的训练以及面部表情的识别,最终输出图片中人物的情绪,并将最终的结果通过网络传输至数据控制中心。
为清楚说明本申请卷积神经网络的情绪识别模型的建立过程,下面采用一实施例进行说明。
对卷积神经网络的情绪识别模型进行训练时,采用的训练图片集均已csv格式进行存储,同时将csv文件转换为单通道灰度图片并根据情绪标签将其分类在不同的文件夹中。
为减少图片一次性载入内存出现的训练过程冗长,及空间复杂度的加深,本发明采用的数据读取方式为建立队列,通过外部磁盘读取部分数据。通过实验表明,运行时一次载入部分数据载入速度快了数十倍,同时训练过程中从内存读取数据,训练过程的速度也未收到影响。
卷积神经网络模型的搭建为五层网络,包含4层步长为1的卷积层、3层步长为2的池化层和两层全连接层,模型的训练具体为通过ImageDataGenerator类对图片的水平翻转、亮度调节、饱和度调节、随机剪裁操作生成一个批次的图片,并对每个批次的训练图片进行数据增强。池化层在输出数据量过大时,对数据进行降维度,在保持特征的情况下减少数据量。
训练过程中出现涉及的损失函数为预测的情绪标签结果与自定义对应标签结果的误差,其表示为:
Figure BDA0002671582120000061
其中M为样本个数,N为特征点数,Υn为不同的权重,‖*‖为特征点的距离,将Υn进一步细化为:
Figure BDA0002671582120000062
其中当可见度越高时,权重越大,C表示不同的人脸类别数,即含有侧脸、正脸、抬头、低头,w表示与类别对应的给定权重。
优化时采用随机梯度下降,梯度更新迭代只用一个训练数据更新参数,即采用只更新一次,减少相似样本出现时产生的数据冗余,并且增加新的样本:
Figure BDA0002671582120000063
其中η表示学习率,θ表示需要更新的权重参数,
Figure BDA0002671582120000064
表示损失函数Loss关于θ的梯度。
激活函数为带泄露单元的线性整流函数,即与普通的线性整流函数相比,给负值赋予了一个非零斜率:
f(x)=max(0,x)+leak*min(0,x)
其中leak为一个很小的常数,使得负轴的信息不会全部丢失。
用户表情实时识别时,首先加载训练好的模型,然后将接收到的人脸照片放入情绪识别模型中,通过特征标识的提取找到对应的情绪标签,并将情绪标签结果发送至数据控制中心。
步骤三:调动数据控制中心对照明设备进行开启状态的调整;数据控制中心为接收步骤二中传输过来的数据以及输出控制照明设备的指令。
其中数据指令的调控为调用已编辑好的硬件编码,单片机通过接收到的指令判断对应的指令调控代码并控制照明灯具进行亮灭的调控。其中硬件编码通过定义0、1进行照明设备的亮灭标识,当标识为1时处于照明状态,0时处于关闭状态,每个不同的照明设备均对应一个编码,不同的组合可以呈现出不同的视觉效果,光的混合是加法性质即当控制红色光的照明设备与控制蓝色光的照明设备同时亮起时,可以得到品红光线的效果。
基于上述方法,可以构建一种用于实现上述方法的***,该实现***包含:
用于采集人脸面部信息的第一模块;该模块包含拍摄设备、红外线检测设备。
用于进行数据处理的第二模块;该模块用于接收模块一传输过来的人脸图片,并将该图片输入创建的模型中进行情绪识别,并将识别出的结果发送出去。
用于控制照明设备的第三模块;该模块包含用于接收第二模块产生的指令并进行照明设备状态调控指令的生成并传输出去的单片机。
用于进行照明的第四模块;该模块包含照明灯具和墙壁式开关。
其中第一模块中将人脸面部信息采集模块中的拍摄设备置于入户时的正对面,并通过安装的摄像设备获取,并将采集时间控制在一分钟,筛选这个时间段内出现频率最高的面部状态作为用户入户时的情绪表达依据图片。红外线检测设备置于入户门里侧,当用户进入时,通过红外线检测到人物时触发拍摄设备进行运作。
第二模块具体为将获取的面部信息传输至情绪识别模型进行人物心情模拟,并将模拟结果传输给数据控制中心。其中对人物的面部情绪的模拟为通过深度学习的结果呈现,其中利用机器有监督的学习首先对人物面部姿态进行分类,其中深度学习为利用卷积神经网络模型的训练以及面部表情的识别,最终输出图片中人物的情绪,并将最终的结果通过网络传输至数据控制中心。
对卷积神经网络的情绪识别模型进行训练时,采用的训练图片集均已csv格式进行存储,同时将csv文件转换为单通道灰度图片并根据情绪标签将其分类在不同的文件夹中。
为减少图片一次性载入内存出现的训练过程冗长,及空间复杂度的加深,本发明采用的数据读取方式为建立队列,通过外部磁盘读取部分数据。通过实验表明,运行时一次载入部分数据载入速度快了数十倍,同时训练过程中从内存读取数据,训练过程的速度也未收到影响。
卷积神经网络模型的搭建为五层网络,包含4层步长为1的卷积层、3层步长为2的池化层和两层全连接层,模型的训练具体为通过对图片的水平翻转、亮度调节、饱和度调节、随机剪裁进行数据增强。
用户表情实时识别时,首先加载训练好的模型,然后将接收到的人脸照片放入情绪识别模型中,通过特征标识的提取找到对应的情绪标签,并将情绪标签结果发送至数据控制中心。
第三模块中单片机通过接收到的指令判断对应的指令调控代码并控制照明灯具进行亮灭的调控。其中硬件编码通过定义0、1进行照明设备的亮灭标识,当标识为1时处于照明状态,0时处于关闭状态,每个不同的照明设备均对应一个编码,不同的组合可以呈现出不同的视觉效果。
第四模块包括多个布局不同的照明设备,所述照明设备包含中心灯及围绕所述中心灯的环绕灯,其中涉及的照明设备均含有不同强度和不同颜色的外表,通过第三模块传输过来的不同组合的亮灭状态标识呈现不同的视觉效果。同时该模块还包含墙壁式开关,当用户想根据自己调控灯光时,可根据自身的喜好对照明设备进行不同状态的调控,且墙壁式开关的控制力强于智能调控。
如上所述,尽管参照特定的优选实施例已经表示和表述了本发明,但其不得解释为对本发明自身的限制。在不脱离所附权利要求定义的本发明的精神和范围前提下,可对其在形式上和细节上做出各种变化。

Claims (8)

1.一种自适应设备亮度调节的方法,其特征在于,包括:
步骤一:获取用户面部信息;
步骤二:将获取的面部信息传输至情绪识别模型进行人物心情模拟,并将模拟结果传输给数据控制中心;
步骤三:调动数据控制中心对照明设备进行开启状态的调整;所述数据控制中心为接收步骤二中传输过来的数据以及输出控制照明设备的指令。
2.根据权利要求1所述的一种自适应设备亮度调节的方法,其特征在于,所述步骤一进一步为:
面部信息由摄像设备获取,为确保对人物面部姿态的准确把握,对人物呈现状态的提取为人物进入拍摄设备后一分钟的照片拍摄,并将呈现最多的面部状态作为用户入户时的心情等同状态。
3.根据权利要求1所述的一种自适应设备亮度调节的方法,其特征在于,所述步骤二进一步为:
对人物的面部情绪的模拟为通过深度学习的结果呈现,其中利用机器有监督的学习首先对人物面部姿态进行分类,并将最终的结果通过网络传输至数据控制中心;
通过构建情绪识别模型来判断人物情绪,情绪识别模型的构建过程为,首先建立图片训练集,其中训练集中的图片为各种场景中且包含人脸信息的图片,
将步骤一中传输过来的图片进行特征提取并放入训练好的情绪识别模型中,获得对卷积神经网络的情绪识别模型进行训练时,采用的训练图片集包含各种场景下含有人脸的照片,且均已csv格式进行存储,同时将csv文件转换为单通道灰度图片并根据情绪标签将其分类在不同的文件夹中;采用的数据读取方式为建立队列,通过外部磁盘读取部分数据;
卷积神经网络模型的搭建为五层网络,包含4层步长为1的卷积层、3层步长为2的池化层和两层全连接层,模型的训练具体为通过ImageDataGenerator类对图片的水平翻转、亮度调节、饱和度调节、随机剪裁操作生成一个批次的图片,并对每个批次的训练图片进行数据增强;池化层在输出数据量过大时,对数据进行降维度当输入图像的尺寸为m*m,输出图像为n*n,零填充个数为p,卷积核为f*f,互动步长为s,则输出尺寸为:
Figure FDA0002671582110000021
池化层不使用零填充,则输出尺寸为:
Figure FDA0002671582110000022
训练过程中出现涉及的损失函数为预测的情绪标签结果与自定义对应标签结果的误差,其表示为:
Figure FDA0002671582110000023
其中M为样本个数,N为特征点数,
Figure FDA0002671582110000024
为不同的权重,‖*‖为特征点的距离当可见度越高时,权重越大,C表示不同的人脸类别数,即含有侧脸、正脸、抬头、低头,w表示与类别对应的给定权重;
优化时采用随机梯度下降,梯度更新迭代只用一个训练数据更新参数,即采用只更新一次,减少相似样本出现时产生的数据冗余,并且增加新的样本:
Figure FDA0002671582110000025
其中η表示学习率,θ表示需要更新的权重参数,
Figure FDA0002671582110000026
表示损失函数Loss关于θ的梯度;
激活函数为带泄露单元的线性整流函数,给负值赋予了一个非零斜率:
f(x)=max(0,x)+leak*min(0,x)
其中leak为一个很小的常数,使得负轴的信息不会全部丢;
用户表情实时识别时,首先加载训练好的模型,然后将接收到的人脸照片放入情绪识别模型中,通过特征标识的提取找到对应的情绪标签,并将情绪标签结果发送至数据控制中心。
4.一种自适应设备亮度调节的***,用于实现上述权利要求1~2中任一项所述方法,其特征在于,包括:
用于采集人脸面部信息的第一模块;
用于进行数据处理的第二模块;
用于控制照明设备的第三模块;
用于进行照明的第四模块。
5.根据权利要求3所述的一种自适应设备亮度调节的***,其特征在于,所述第一模块进一步将人脸面部信息采集模块置于入户时的正对面,并通过安装的摄像设备获取,并将采集时间控制在一分钟,筛选这个时间段内出现频率最高的面部状态作为用户入户时的情绪表达依据图片。
6.根据权利要求3所述的一种自适应设备亮度调节的***,其特征在于,所述第二模块进一步建立卷积训练神经网络,卷积神经网络模型的搭建为五层网络,包含4层步长为1的卷积层、3层步长为2的池化层和两层全连接层。
7.根据权利要求3所述的一种自适应设备亮度调节的***,其特征在于,所述第三模块进一步用于接收第二模块产生的指令并进行照明设备状态调控指令的生成并传输出去的单片机;
其中单片机通过接收到的指令判断对应的指令调控代码并控制照明灯具进行亮灭的调控,其中硬件编码通过定义0、1进行照明设备的亮灭标识,当标识为1时处于照明状态,0时处于关闭状态,每个不同的照明设备均对应一个编码,不同的组合可以呈现出不同的视觉效果。
8.根据权利要求3所述的一种自适应设备亮度调节的***,其特征在于,所述第四模块进一步包括多个布局不同的照明设备,所述照明设备包含中心灯及围绕所述中心灯的环绕灯,其中涉及的照明设备均含有不同强度和不同颜色的外表,通过第三模块传输过来的不同组合的亮灭状态标识呈现不同的视觉效果。
CN202010934906.6A 2020-09-08 2020-09-08 一种自适应设备亮度调节的方法及*** Pending CN112218414A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010934906.6A CN112218414A (zh) 2020-09-08 2020-09-08 一种自适应设备亮度调节的方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010934906.6A CN112218414A (zh) 2020-09-08 2020-09-08 一种自适应设备亮度调节的方法及***

Publications (1)

Publication Number Publication Date
CN112218414A true CN112218414A (zh) 2021-01-12

Family

ID=74050168

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010934906.6A Pending CN112218414A (zh) 2020-09-08 2020-09-08 一种自适应设备亮度调节的方法及***

Country Status (1)

Country Link
CN (1) CN112218414A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113889056A (zh) * 2021-10-26 2022-01-04 深圳电器公司 亮度调节方法及相关装置
CN114132449A (zh) * 2022-02-07 2022-03-04 深圳市奥新科技有限公司 船舱灯光控制方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104768309A (zh) * 2015-04-23 2015-07-08 天脉聚源(北京)传媒科技有限公司 一种根据用户情绪调节灯光的方法及装置
CN111191585A (zh) * 2019-12-30 2020-05-22 湖北美和易思教育科技有限公司 一种基于表情控制情感灯的方法及其***
CN111325152A (zh) * 2020-02-19 2020-06-23 北京工业大学 一种基于深度学习的交通标志识别方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104768309A (zh) * 2015-04-23 2015-07-08 天脉聚源(北京)传媒科技有限公司 一种根据用户情绪调节灯光的方法及装置
CN111191585A (zh) * 2019-12-30 2020-05-22 湖北美和易思教育科技有限公司 一种基于表情控制情感灯的方法及其***
CN111325152A (zh) * 2020-02-19 2020-06-23 北京工业大学 一种基于深度学习的交通标志识别方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113889056A (zh) * 2021-10-26 2022-01-04 深圳电器公司 亮度调节方法及相关装置
CN114132449A (zh) * 2022-02-07 2022-03-04 深圳市奥新科技有限公司 船舱灯光控制方法、装置、设备及存储介质
CN114132449B (zh) * 2022-02-07 2022-05-24 深圳市奥新科技有限公司 船舱灯光控制方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
CN112533317B (zh) 一种场景式教室智能照明优化方法
CN109874202B (zh) 幼儿园一体教室情景式自适应照明***、控制装置及控制方法
CN101313633B (zh) 气氛控制
CN112969254B (zh) 一种基于场景自动识别的商务宾馆客房照明控制装置
CN112218406B (zh) 基于用户身份自动识别的酒店个性化智能照明***
CN109542233A (zh) 一种基于动态手势和人脸识别的灯具控制***
CN112218414A (zh) 一种自适应设备亮度调节的方法及***
CN109874209A (zh) 基于场景自动识别的商务酒店客房场景照明***
CN108476258A (zh) 用于电子设备控制对象的方法以及电子设备
CN117412449B (zh) 氛围灯设备及其灯效播放控制方法和相应的装置、介质
CN112596405A (zh) 家用电器的控制方法、装置、设备以及计算机可读存储介质
US11521424B2 (en) Electronic device and control method therefor
CN207851897U (zh) 基于TensorFlow的人工智能的教学***
CN111989917A (zh) 电子设备及其控制方法
CN116685028A (zh) 一种虚拟环境数字人场景灯光智能控制***
CN109976169B (zh) 基于自学习技术的互联网电视智能控制方法及控制***
CN101558607A (zh) 环境***以及控制环境***的方法
CN110824930B (zh) 家电设备的控制方法、装置及***
CN117412450B (zh) 氛围灯设备及其灯效配色方法和相应的装置、介质
Asokan et al. Hand Gesture Recognition for Blind Using Machine Learning Algorithms
CN117762032B (zh) 基于场景适应和人工智能的智能设备控制***及方法
CN117875187B (zh) 一种生活环境的模拟***和方法
CN116887467B (zh) 一种基于多色全光谱调光技术的灯具混光方法及***
CN117355009A (zh) 台灯照明亮度调节方法及***
CN116209112A (zh) 一种基于姿态估算与自动场景识别的led吸顶灯

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210112