CN115049814B - 采用神经网络模型的护眼灯智能调节方法 - Google Patents

采用神经网络模型的护眼灯智能调节方法 Download PDF

Info

Publication number
CN115049814B
CN115049814B CN202210971247.2A CN202210971247A CN115049814B CN 115049814 B CN115049814 B CN 115049814B CN 202210971247 A CN202210971247 A CN 202210971247A CN 115049814 B CN115049814 B CN 115049814B
Authority
CN
China
Prior art keywords
image
light environment
value
neural network
attention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210971247.2A
Other languages
English (en)
Other versions
CN115049814A (zh
Inventor
孟庆琨
荣宇翔
张民增
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Liaocheng Hurricane Industrial Design Co ltd
Original Assignee
Liaocheng Hurricane Industrial Design Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Liaocheng Hurricane Industrial Design Co ltd filed Critical Liaocheng Hurricane Industrial Design Co ltd
Priority to CN202210971247.2A priority Critical patent/CN115049814B/zh
Publication of CN115049814A publication Critical patent/CN115049814A/zh
Application granted granted Critical
Publication of CN115049814B publication Critical patent/CN115049814B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)
  • Rehabilitation Tools (AREA)

Abstract

本发明涉及智能调节技术领域,具体涉及一种采用神经网络模型的护眼灯智能调节方法,该方法对护眼灯未打开时的光线环境图像设置标签值,得到标签图像,利用标签图像训练神经网络得到对应光线环境图像的关注图像;构建K‑SVD算法的损失函数以分别得到光线环境图像和个人数据图像的稀疏向量;基于稀疏向量计算光线环境图像和个人数据图像之间的相关性指标,以对光线环境图像的标签值进行调整,得到对应的新标签图像,利用由新标签图像重新训练好的神经网络对护眼灯进行调节。通过分析个人数据与训练集中的各数据之间的关系以对训练集中的各数据进行调整,使得由调整后的训练集所训练的神经网络能够更好适用于各用户的个性需求。

Description

采用神经网络模型的护眼灯智能调节方法
技术领域
本发明涉及智能调节技术领域,具体涉及一种采用神经网络模型的护眼灯智能调节方法。
背景技术
随着社会经济的发展和人们生活水平的提高,人们的学习需求也随之提高。护眼灯作为学习伴侣,其调控不好时会造成人眼疲劳,甚至会造成视力不良,因而需要根据环境和个人需求对护眼灯进行智能调控。
为了实现对护眼灯进行准确的智能调控一般采用神经网络进行控制调整,而神经网络一般采用通用数据集进行训练来得到护眼灯的控制参数,但是由于每个人对护眼灯的需求不同,例如有些人需求光亮强度相对高的环境下学习,而有些人需求光温相对高一些的环境,因此传统情况下采用通用数据集训练得到神经网络,其得到的护眼灯的调控方式只能满足大众化需求,对于每个人的个性化需求不能满足。
发明内容
为了解决上述技术问题,本发明的目的在于提供一种采用神经网络模型的护眼灯智能调节方法,所采用的技术方案具体如下:
采集护眼灯未打开时的多张光线环境图像,分别对每张光线环境图像设置标签值,得到对应的标签图像,所述标签值为多组由光线强度和色温值组成的结构单元灯组;利用所述标签图像对神经网络进行训练,利用训练好的神经网络得到每张光线环境图像的关注图像;
基于所述关注图像构建K-SVD算法的损失函数,利用EM算法对所述损失函数进行训练,以得到每张光线环境图像的稀疏向量;
获取个人数据图像的稀疏向量,所述个人数据图像是指由个人需求手动调节护眼灯后所采集的光线环境图像;计算当前光线环境图像的稀疏向量与个人数据图像的稀疏向量之间的相关性指标,利用相关性指标对当前光线环境图像的标签值进行调整,得到新标签值;
根据每张光线环境图像的新标签值得到对应的新标签图像,利用所述新标签图像对所述神经网络进行重新训练,以通过重新训练好的所述神经网络对护眼灯进行调节。
进一步的,所述神经网络的训练过程包括:
基于构建的损失函数,将所述标签图像输入到神经网络中,通过第一卷积层得到第一特征图,将第一特征图与第一遮罩图像相乘得到第一处理图像,所述第一处理图像通过第二卷积层得到第二特征图,将第二特征图与第二遮罩图像相乘得到第二处理图像,所述第二处理图像通过全连接层输出特征向量。
进一步的,所述损失函数的构建方法为:
根据第一遮罩图像和第二遮罩图像构建第一损失函数
Figure 682178DEST_PATH_IMAGE001
,其中,
Figure 282441DEST_PATH_IMAGE002
为第
Figure 743509DEST_PATH_IMAGE003
个遮罩图像中第
Figure 642195DEST_PATH_IMAGE004
个像素点的像素值,
Figure 992143DEST_PATH_IMAGE005
为第
Figure 736108DEST_PATH_IMAGE003
个遮罩图像中像素点的数量;
将所述第一损失函数和均方差损失函数进行相加,相加结果即为神经网络的损失函数。
进一步的,所述利用训练好的神经网络得到每张光线环境的关注图像的方法,包括:
根据训练好的神经网络获取每个光线环境图像的第一遮罩图像和第二遮罩图像,对第一遮罩图像和第二遮罩图像分别进行上采样,得到与光线环境图像相同大小的图像,将上采样得到的两个图像中相同位置的像素值进行相加求均值,得到综合遮罩图像,将所述综合遮罩图像作为对应光线环境图像的关注图像。
进一步的,所述构建K-SVD算法的损失函数的方法,包括:
对第K张光线环境图像的关注图像中的像素值进行统计得到关注直方图,对所述关注直方图进行k-means聚类,得到低关注度类别和高关注度类别;获取高关注度类别中的最小像素值,以所述最小像素值为界限,将关注图像中大于所述最小像素值的像素点划分为高关注度像素点,得到高关注度遮罩图,将所述高关注度遮罩图与第K张光线环境图像相乘得到高关注度图像
Figure 51683DEST_PATH_IMAGE006
所述K-SVD算法为
Figure 498101DEST_PATH_IMAGE007
的结构,其中,
Figure 899126DEST_PATH_IMAGE008
表示输入图像,
Figure 712362DEST_PATH_IMAGE009
表示字典矩阵,
Figure 882443DEST_PATH_IMAGE010
表示输入图像的稀疏向量;基于稀疏向量中每个稀疏值,将字典矩阵中
Figure 90308DEST_PATH_IMAGE011
维度至
Figure 385154DEST_PATH_IMAGE012
维度的字典向量所对应的稀疏值置0,得到第一稀疏向量
Figure 2080DEST_PATH_IMAGE013
,其中,N为字典矩阵的偶数列的列数;结合第一稀疏向量、字典矩阵和所述高关注度图像构建第二损失函数
Figure 522274DEST_PATH_IMAGE014
将第二损失函数和所述K-SVD算法的原始损失函数进行相加,相加结果即为所述K-SVD算法的改进的损失函数,所述原始损失函数
Figure 74609DEST_PATH_IMAGE015
,其中,
Figure 981385DEST_PATH_IMAGE016
为稀疏向量的L2范数。
进一步的,所述计算当前光线环境图像的稀疏向量与个人数据图像的稀疏向量之间的相关性指标的方法,包括:
获取个人数据图像的稀疏向量中1维度至
Figure 572641DEST_PATH_IMAGE011
维度的子稀疏向量L1和个人数据图像的稀疏向量中
Figure 389419DEST_PATH_IMAGE011
维度至
Figure 971710DEST_PATH_IMAGE012
维度的子稀疏向量L2;
令当前光线环境图像为第K张光线环境图像,获取第K张光线环境图像的稀疏向量中1维度至
Figure 8192DEST_PATH_IMAGE011
维度的子稀疏向量
Figure 904604DEST_PATH_IMAGE017
和第K张光线环境图像的稀疏向量中
Figure 434942DEST_PATH_IMAGE011
维度至
Figure 827615DEST_PATH_IMAGE012
维度的子稀疏向量
Figure 708984DEST_PATH_IMAGE018
计算第K张光线环境图像的稀疏向量与个人数据图像的稀疏向量之间的相关性指标
Figure 576796DEST_PATH_IMAGE019
,则相关性指标
Figure 961641DEST_PATH_IMAGE019
的计算公式为:
Figure 761101DEST_PATH_IMAGE020
其中,
Figure 628300DEST_PATH_IMAGE021
为欧式距离;
Figure 866515DEST_PATH_IMAGE022
为第K张光线环境图像的关注图像对应高关注度类别的像素值均值;
Figure 777970DEST_PATH_IMAGE023
为第K张光线环境图像的关注图像对应低关注度类别的像素值均值。
进一步的,所述利用相关性指标对当前光线环境图像的标签值进行调整,得到新标签值的方法,包括:
利用相关性指标对第K张光线环境图像的标签值中每个元素值进行调整,将调整后的元素值组成新标签值,其中调整公式为:
Figure 843271DEST_PATH_IMAGE024
其中,
Figure 574598DEST_PATH_IMAGE025
为第K张光线环境图像的标签值中调整后的第
Figure 413241DEST_PATH_IMAGE003
个元素值;
Figure 412159DEST_PATH_IMAGE026
为第K张光线环境图像的标签值中第
Figure 678055DEST_PATH_IMAGE003
个元素值;
Figure 958995DEST_PATH_IMAGE027
表示个人数据图像的标签值中调整后的第
Figure 972301DEST_PATH_IMAGE003
个元素值;
Figure 451823DEST_PATH_IMAGE028
表示个人数据图像的标签值中第
Figure 262522DEST_PATH_IMAGE003
个元素值。
本发明实施例至少具有如下有益效果:基于个人用灯习惯采集个人数据,通过分析个人数据与神经网络的训练集中的各通用数据之间的相关性,基于相关性对神经网络的训练集中的各通用数据进行调整,利用调整后的训练集对神经网络重新训练,使得重新训练好的神经网络能够更好的自适应调控,以满足各用户的个性需求。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1为本发明一个实施例提供的一种采用神经网络模型的护眼灯智能调节方法的步骤流程图。
具体实施方式
为了更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的一种采用神经网络模型的护眼灯智能调节方法,其具体实施方式、结构、特征及其功效,详细说明如下。在下述说明中,不同的“一个实施例”或“另一个实施例”指的不一定是同一实施例。此外,一个或多个实施例中的特定特征、结构或特点可由任何合适形式组合。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。
下面结合附图具体的说明本发明所提供的一种采用神经网络模型的护眼灯智能调节方法的具体方案。
请参阅图1,其示出了本发明一个实施例提供的一种采用神经网络模型的护眼灯智能调节方法的步骤流程图,该方法包括以下步骤:
步骤S001,采集护眼灯未打开时的多张光线环境图像,分别对每张光线环境图像设置标签值,得到对应的标签图像;利用标签图像对神经网络进行训练,利用训练好的神经网络得到每张光线环境图像的关注图像。
具体的,由于护眼灯需要根据其周围的光线环境数据来进行智能调控,所以需要采集护眼灯未打开时周围的光线环境图像:在护眼灯上安装相机,利用该相机拍摄得到护眼灯周围的光线环境图像。
需要说明的是,护眼灯是在一个大环境下单独使用的小灯,且大环境中存在大灯,因此利用护眼灯上的相机能够采集护眼灯周围的光线环境图像。
由于护眼灯存在10个结构单元灯组,也即是10个不同档位的开关,每个结构单元灯组都是由光线强度和色温值组成的,每个结构单元灯组是不一样的,因此根据护眼灯的结构单元灯组,对每张光线环境图像设置标签值,则标签值为10组结构单元灯组,也即是标签值中包含20个元素值。
需要说明的是,结构单元灯组的数量10是本发明实施例中给出的示例值,实施者可根据需求进行调整。
构建神经网络,神经网络的网络结构为:2个卷积层和1个全连接层,每个卷积层包含分组卷积操作、池化操作和激活函数等,且每个卷积层采用ResNet网络结构,由于ResNet网络是常用的神经网络,本发明实施例中不再对该网络进行详细叙述。
将标签图像输入到神经网络中,标签图像通过第一卷积层得到第一特征图,将第一特征图与第一遮罩图像相乘得到第一处理图像,第一处理图像通过第二卷积层得到第二特征图,将第二特征图与第二遮罩图像相乘得到第二处理图像,第二处理图像通过全连接层输出特征向量,该特征向量表征输入图像的标签值,则特征向量是一个20维向量。
需要说明的是,第一遮罩图像和第二遮罩图像都是单通道图像,每个遮罩图像的大小都与相乘对象的图像大小一样,且神经网络训练前每个遮罩图像中的数据都是随机初始化得到的,会随着神经网络的训练一起进行数据更新。
构建神经网络的损失函数,为了使得每个遮罩图像都为关注度图像,应保障第一遮罩图像和第二遮罩图像中的数据尽可能稀疏,故构建遮罩图像的第一损失函数,则第一损失函数
Figure 827496DEST_PATH_IMAGE029
的计算公式为:
Figure 148887DEST_PATH_IMAGE001
,其中,
Figure 984381DEST_PATH_IMAGE002
为第
Figure 795342DEST_PATH_IMAGE003
个遮罩图像中第
Figure 988557DEST_PATH_IMAGE004
个像素点的像素值,
Figure 205650DEST_PATH_IMAGE005
为第
Figure 535131DEST_PATH_IMAGE003
个遮罩图像中像素点的数量;令第一损失函数和均方差损失函数进行相加,相加结果即为神经网络的损失函数。
将各个标签图像输入到神经网络中,利用随机梯度下降法进行训练,直至神经网络的损失函数收敛得到训练好的神经网络,进而根据训练好的神经网络获取每个光线环境图像的第一遮罩图像和第二遮罩图像,对第一遮罩图像和第二遮罩图像分别进行上采样,得到与光线环境图像相同大小的图像,将上采样得到的两个图像中相同位置的像素值进行相加求均值,得到综合遮罩图像,且综合遮罩图像中的每个像素值为均值,进而将综合遮罩图像作为对应光线环境图像的关注图像。
步骤S002,基于关注图像构建K-SVD算法的损失函数,利用EM算法对损失函数进行训练,以得到每张光线环境图像的稀疏向量。
具体的,由于K-SVD算法对于特征提取与控制有较好的表现,因而利用K-SVD算法对关注图像进行特征提取及隔离。
首先,K-SVD算法为
Figure 313731DEST_PATH_IMAGE007
的结构,其中,
Figure 247706DEST_PATH_IMAGE008
表示输入图像,
Figure 769954DEST_PATH_IMAGE009
表示字典矩阵,
Figure 452477DEST_PATH_IMAGE010
表示输入图像的稀疏向量,为了便于说明,则将稀疏向量中每个维度上的值称为稀疏值,每个稀疏值对应字典矩阵中的一个字典向量,即一列对应一个字典向量。
本发明实施例构建K-SVD算法的损失函数以将关注图像的高关注特征隔离在字典矩阵的
Figure 401979DEST_PATH_IMAGE011
维度至
Figure 38628DEST_PATH_IMAGE012
维度之间的字典向量中,N是指字典矩阵的列数,且为偶数列,则具体过程为:
(1)筛选关注图像的高关注特征。
具体的,为了便于分析,以第K张光线环境图像的关注图像
Figure 866032DEST_PATH_IMAGE030
为例来说明:关注图像
Figure 904526DEST_PATH_IMAGE030
的各像素值为关注度值,对关注图像
Figure 759349DEST_PATH_IMAGE030
基于其关注度值进行统计得到关注直方图,对关注直方图进行k-means聚类分析,聚类类别数为两类,将每个类别中所有像素点的关注度值求均值得到每个类别的关注度均值,关注度均值大的那个类别为高关注度类别,关注度均值小的那个类别为低关注度类别;获取高关注度类别中的最小关注度值
Figure 912988DEST_PATH_IMAGE031
,以最小关注度值
Figure 777039DEST_PATH_IMAGE031
为界限,将大于最小关注度值
Figure 997936DEST_PATH_IMAGE031
的像素点划分为高关注度像素点,则得到高关注度遮罩图,将高关注度遮罩图与第K张光线环境图像相乘得到高关注度图像
Figure 925791DEST_PATH_IMAGE032
(2)构建K-SVD算法的损失函数。
具体的,为了使高关注像素对应的特征分隔在
Figure 661665DEST_PATH_IMAGE011
维度至
Figure 703309DEST_PATH_IMAGE012
维度的字典向量中,将
Figure 575450DEST_PATH_IMAGE011
维度至
Figure 178600DEST_PATH_IMAGE012
维度的字典向量集合记为D2,获取第K张光线环境图像的稀疏向量
Figure 168815DEST_PATH_IMAGE033
,基于稀疏向量
Figure 250035DEST_PATH_IMAGE033
中的每个稀疏值,将字典向量集合
Figure 445524DEST_PATH_IMAGE034
对应在稀疏向量
Figure 842745DEST_PATH_IMAGE033
中的各稀疏值置零得到第一稀疏向量
Figure 428578DEST_PATH_IMAGE013
,通过该方式就会将第K张光线环境图像的字典向量集合
Figure 641385DEST_PATH_IMAGE034
对应的特征信息去除,因而
Figure 514882DEST_PATH_IMAGE035
对应的图像信息为只包含字典向量集合
Figure 522153DEST_PATH_IMAGE034
外的特征图像,而要使字典向量集合
Figure 860861DEST_PATH_IMAGE034
外尽可能多的包含高关注度图像特征,则应使
Figure 375894DEST_PATH_IMAGE035
对应的图像与高关注图像尽可能相同,则第K张光线环境图像对应高关注度图像的第二损失函数
Figure 139450DEST_PATH_IMAGE036
的公式如下:
Figure 583201DEST_PATH_IMAGE037
需要说明的是,通过使第二损失函数
Figure 2681DEST_PATH_IMAGE036
尽可能小,进而使只包含
Figure 26132DEST_PATH_IMAGE011
维度至
Figure 817764DEST_PATH_IMAGE012
维度的字典向量的图像
Figure 963575DEST_PATH_IMAGE038
与高关注度图像
Figure 667088DEST_PATH_IMAGE006
尽可能相同,从而实现将第K张光线环境图像的高关注特征隔离在字典矩阵的
Figure 290968DEST_PATH_IMAGE011
维度至
Figure 904483DEST_PATH_IMAGE012
维度之间的字典向量中。
将第二损失函数和K-SVD算法的原始损失函数进行相加,将相加结果作为K-SVD算法的综合损失函数,也即是改进的损失函数,其中,原始损失函数
Figure 188571DEST_PATH_IMAGE039
的计算公式为:
Figure 317064DEST_PATH_IMAGE040
其中,
Figure 479055DEST_PATH_IMAGE016
为稀疏向量的L2范数。
进一步的,利用K-SVD算法的综合损失函数,通过EM算法进行训练,直至综合损失函数收敛训练完成,获取训练完成时每张光线环境的稀疏向量。
步骤S003,获取个人数据图像的稀疏向量,个人数据图像是指由个人需求手动调节护眼灯后所采集的光线环境图像;计算当前光线环境图像的稀疏向量与个人数据图像的稀疏向量之间的相关性指标,利用相关性指标对当前光线环境图像的标签值进行调整,得到新标签值。
具体的,采集个人数据图像,其中,个人数据图像是指由个人需求手动调节护眼灯后所采集的光线环境图像,并利用步骤S002的方法得到个人数据图像的稀疏向量。
分别获取个人数据图像的稀疏向量中1维度至
Figure 71711DEST_PATH_IMAGE011
维度的子稀疏向量L1、个人数据图像的稀疏向量中
Figure 559324DEST_PATH_IMAGE011
维度至
Figure 405139DEST_PATH_IMAGE012
维度的子稀疏向量L2、第K张光线环境图像的稀疏向量中1维度至
Figure 308504DEST_PATH_IMAGE011
维度的子稀疏向量
Figure 693349DEST_PATH_IMAGE017
、第K张光线环境图像的稀疏向量中
Figure 86285DEST_PATH_IMAGE011
维度至
Figure 251687DEST_PATH_IMAGE012
维度的子稀疏向量
Figure 519595DEST_PATH_IMAGE018
,则计算第K张光线环境图像的稀疏向量与个人数据图像的稀疏向量之间的相关性指标
Figure 493367DEST_PATH_IMAGE019
,则相关性指标
Figure 260466DEST_PATH_IMAGE019
的计算公式为:
Figure 850847DEST_PATH_IMAGE020
其中,
Figure 220649DEST_PATH_IMAGE021
为欧式距离;
Figure 815971DEST_PATH_IMAGE022
为第K张光线环境图像的关注图像对应高关注度类别的关注度均值;
Figure 816288DEST_PATH_IMAGE023
为第K张光线环境图像的关注图像对应低关注度类别的关注度均值。
利用第K张光线环境图像对应的相关性指标
Figure 566070DEST_PATH_IMAGE019
对第K张光线环境图像的标签值进行调整,得到新标签值,则标签值的调整公式为:
Figure 677245DEST_PATH_IMAGE041
其中,
Figure 124145DEST_PATH_IMAGE025
为第K张光线环境图像的标签值中调整后的第
Figure 295363DEST_PATH_IMAGE003
个元素值;
Figure 329178DEST_PATH_IMAGE026
为第K张光线环境图像的标签值中第
Figure 40782DEST_PATH_IMAGE003
个元素值;
Figure 374812DEST_PATH_IMAGE027
表示个人数据图像的标签值中调整后的第
Figure 970395DEST_PATH_IMAGE003
个元素值,也即是用户手动调节后的元素值;
Figure 694768DEST_PATH_IMAGE028
表示个人数据图像的标签值中第
Figure 147747DEST_PATH_IMAGE003
个元素值,也即是用户没有调整时元素值。
利用标签值的调整公式对第K张光线环境图像的标签值中每个元素值进行调整,将调整后的元素值组成新标签值。
同理,分别计算每张光线环境图像与个人数据图像之间的相关性指标,利用光线环境图像的相关性指标对光线环境图像的标签值中每个元素值进行调整,得到对应的新标签值,一张光线环境图像对应一个新标签值。
步骤S004,根据每张光线环境图像的新标签值得到对应的新标签图像,利用新标签图像对神经网络进行重新训练,以通过重新训练好的神经网络对护眼灯进行调节。
具体的,利用步骤S003得到每张光线环境图像的新标签值,对光线环境图像设置新标签值得到对应的新标签图像,将新标签图像输入到神经网络中,通过梯度下降法进行重新训练得到重新训练好的神经网络,进而利用重新训练好的神经网络对护眼灯进行智能调节。
综上所述,本发明实施例提供了一种采用神经网络模型的护眼灯智能调节方法,该方法对护眼灯未打开时的光线环境图像设置标签值,得到标签图像,利用标签图像训练神经网络得到对应光线环境图像的关注图像;构建K-SVD算法的损失函数,分别得到光线环境图像和个人数据图像的稀疏向量,基于稀疏向量计算光线环境图像和个人数据图像之间的相关性指标,利用相关性指标对标签值进行调整,得到新标签值;根据新标签值对应的新标签图像对神经网络重新训练,以通过重新训练好的神经网络对护眼灯进行调节。通过分析个人数据与训练集中的各数据之间的关系以对训练集中的各数据进行调整,使得由调整后的训练集所训练的神经网络能够更好适用于各用户的个性需求。
需要说明的是:上述本发明实施例先后顺序仅仅为了描述,不代表实施例的优劣。且上述对本说明书特定实施例进行了描述。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (4)

1.一种采用神经网络模型的护眼灯智能调节方法,其特征在于,该方法包括以下步骤:
采集护眼灯未打开时的多张光线环境图像,分别对每张光线环境图像设置标签值,得到对应的标签图像,所述标签值为多组由光线强度和色温值组成的结构单元灯组;利用所述标签图像对神经网络进行训练,利用训练好的神经网络得到每张光线环境图像的关注图像;
基于所述关注图像构建K-SVD算法的损失函数,利用EM算法对所述损失函数进行训练,以得到每张光线环境图像的稀疏向量;
获取个人数据图像的稀疏向量,所述个人数据图像是指由个人需求手动调节护眼灯后所采集的光线环境图像;计算当前光线环境图像的稀疏向量与个人数据图像的稀疏向量之间的相关性指标,利用相关性指标对当前光线环境图像的标签值进行调整,得到新标签值;
根据每张光线环境图像的新标签值得到对应的新标签图像,利用所述新标签图像对所述神经网络进行重新训练,以通过重新训练好的所述神经网络对护眼灯进行调节;
所述构建K-SVD算法的损失函数的方法,包括:
对第K张光线环境图像的关注图像中的像素值进行统计得到关注直方图,对所述关注直方图进行k-means聚类,得到低关注度类别和高关注度类别;获取高关注度类别中的最小像素值,以所述最小像素值为界限,将关注图像中大于所述最小像素值的像素点划分为高关注度像素点,得到高关注度遮罩图,将所述高关注度遮罩图与第K张光线环境图像相乘得到高关注度图像
Figure DEST_PATH_IMAGE001
所述K-SVD算法为
Figure 577311DEST_PATH_IMAGE002
的结构,其中,
Figure DEST_PATH_IMAGE003
表示输入图像,
Figure 400298DEST_PATH_IMAGE004
表示字典矩阵,
Figure DEST_PATH_IMAGE005
表示输入图像的稀疏向量;基于稀疏向量中每个稀疏值,将字典矩阵中
Figure 113694DEST_PATH_IMAGE006
维度至
Figure DEST_PATH_IMAGE007
维度的字典向量所对应的稀疏值置0,得到第一稀疏向量
Figure 595010DEST_PATH_IMAGE008
,其中,N为字典矩阵的偶数列的列数;结合第一稀疏向量、字典矩阵和所述高关注度图像构建第二损失函数
Figure DEST_PATH_IMAGE009
将第二损失函数和所述K-SVD算法的原始损失函数进行相加,相加结果即为所述K-SVD算法的改进的损失函数,则所述原始损失函数
Figure 179094DEST_PATH_IMAGE010
,其中,
Figure DEST_PATH_IMAGE011
为稀疏向量的L2范数;
所述计算当前光线环境图像的稀疏向量与个人数据图像的稀疏向量之间的相关性指标的方法,包括:
获取个人数据图像的稀疏向量中1维度至
Figure 454873DEST_PATH_IMAGE006
维度的子稀疏向量L1和个人数据图像的稀疏向量中
Figure 216418DEST_PATH_IMAGE006
维度至
Figure 62276DEST_PATH_IMAGE007
维度的子稀疏向量L2;
令当前光线环境图像为第K张光线环境图像,获取第K张光线环境图像的稀疏向量中1维度至
Figure 796139DEST_PATH_IMAGE006
维度的子稀疏向量
Figure 178443DEST_PATH_IMAGE012
和第K张光线环境图像的稀疏向量中
Figure 896125DEST_PATH_IMAGE006
维度至
Figure 545675DEST_PATH_IMAGE007
维度的子稀疏向量
Figure DEST_PATH_IMAGE013
计算第K张光线环境图像的稀疏向量与个人数据图像的稀疏向量之间的相关性指标
Figure 228985DEST_PATH_IMAGE014
,则相关性指标
Figure 876260DEST_PATH_IMAGE014
的计算公式为:
Figure 81239DEST_PATH_IMAGE016
其中,
Figure DEST_PATH_IMAGE017
为欧式距离;
Figure 645731DEST_PATH_IMAGE018
为第K张光线环境图像的关注图像对应高关注度类别的像素值均值;
Figure DEST_PATH_IMAGE019
为第K张光线环境图像的关注图像对应低关注度类别的像素值均值;
所述利用相关性指标对当前光线环境图像的标签值进行调整,得到新标签值的方法,包括:
利用相关性指标对第K张光线环境图像的标签值中每个元素值进行调整,将调整后的元素值组成新标签值,其中调整公式为:
Figure DEST_PATH_IMAGE021
其中,
Figure 763640DEST_PATH_IMAGE022
为第K张光线环境图像的标签值中调整后的第
Figure DEST_PATH_IMAGE023
个元素值;
Figure 145599DEST_PATH_IMAGE024
为第K张光线环境图像的标签值中第
Figure 837874DEST_PATH_IMAGE023
个元素值;
Figure DEST_PATH_IMAGE025
表示个人数据图像的标签值中调整后的第
Figure 955919DEST_PATH_IMAGE023
个元素值;
Figure 518881DEST_PATH_IMAGE026
表示个人数据图像的标签值中第
Figure 976801DEST_PATH_IMAGE023
个元素值。
2.如权利要求1所述的一种采用神经网络模型的护眼灯智能调节方法,其特征在于,所述神经网络的训练过程包括:
基于构建的损失函数,将所述标签图像输入到神经网络中,通过第一卷积层得到第一特征图,将第一特征图与第一遮罩图像相乘得到第一处理图像,所述第一处理图像通过第二卷积层得到第二特征图,将第二特征图与第二遮罩图像相乘得到第二处理图像,所述第二处理图像通过全连接层输出特征向量。
3.如权利要求2所述的一种采用神经网络模型的护眼灯智能调节方法,其特征在于,所述损失函数的构建方法为:
根据第一遮罩图像和第二遮罩图像构建第一损失函数
Figure DEST_PATH_IMAGE027
,其中,
Figure 923415DEST_PATH_IMAGE028
为第
Figure 515196DEST_PATH_IMAGE023
个遮罩图像中第
Figure DEST_PATH_IMAGE029
个像素点的像素值,
Figure 230867DEST_PATH_IMAGE030
为第
Figure 187584DEST_PATH_IMAGE023
个遮罩图像中像素点的数量;
将所述第一损失函数和均方差损失函数进行相加,相加结果即为神经网络的损失函数。
4.如权利要求2所述的一种采用神经网络模型的护眼灯智能调节方法,其特征在于,所述利用训练好的神经网络得到每张光线环境的关注图像的方法,包括:
根据训练好的神经网络获取每个光线环境图像的第一遮罩图像和第二遮罩图像,对第一遮罩图像和第二遮罩图像分别进行上采样,得到与光线环境图像相同大小的图像,将上采样得到的两个图像中相同位置的像素值进行相加求均值,得到综合遮罩图像,将所述综合遮罩图像作为对应光线环境图像的关注图像。
CN202210971247.2A 2022-08-15 2022-08-15 采用神经网络模型的护眼灯智能调节方法 Active CN115049814B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210971247.2A CN115049814B (zh) 2022-08-15 2022-08-15 采用神经网络模型的护眼灯智能调节方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210971247.2A CN115049814B (zh) 2022-08-15 2022-08-15 采用神经网络模型的护眼灯智能调节方法

Publications (2)

Publication Number Publication Date
CN115049814A CN115049814A (zh) 2022-09-13
CN115049814B true CN115049814B (zh) 2022-11-08

Family

ID=83168244

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210971247.2A Active CN115049814B (zh) 2022-08-15 2022-08-15 采用神经网络模型的护眼灯智能调节方法

Country Status (1)

Country Link
CN (1) CN115049814B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115793490B (zh) * 2023-02-06 2023-04-11 南通弈匠智能科技有限公司 基于大数据的智能家居节能控制方法
CN117279170B (zh) * 2023-10-11 2024-03-22 惠州市沃生照明有限公司 用于护眼灯的灯光调节方法及***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105528623A (zh) * 2016-01-09 2016-04-27 北京工业大学 一种基于地物类别分类冗余字典的成像光谱图像稀疏表示方法
CN110210515A (zh) * 2019-04-25 2019-09-06 浙江大学 一种图像数据多标签分类方法
CN112069978A (zh) * 2020-09-03 2020-12-11 陕西师范大学 基于互信息和字典学习的人脸识别方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106649434B (zh) * 2016-09-06 2020-10-13 北京蓝色光标品牌管理顾问股份有限公司 一种跨领域知识迁移的标签嵌入方法和装置
CN108235549A (zh) * 2018-03-01 2018-06-29 苏州科技大学 一种基于模糊神经网络控制的多色节能护眼灯及控制方法
CN108805167B (zh) * 2018-05-04 2022-05-13 江南大学 一种基于Laplace函数约束的稀疏深度置信网络图像分类方法
CN109192298B (zh) * 2018-07-27 2021-11-23 南京航空航天大学 基于脑网络的深度脑疾病诊断算法
CN109783730A (zh) * 2019-01-03 2019-05-21 深圳壹账通智能科技有限公司 产品推荐方法、装置、计算机设备和存储介质
CN111192262A (zh) * 2020-01-03 2020-05-22 腾讯云计算(北京)有限责任公司 基于人工智能的产品缺陷分类方法、装置、设备及介质
CN111309918A (zh) * 2020-03-17 2020-06-19 湖南大学 一种基于标签关联性的多标签文本分类方法
CN111488948B (zh) * 2020-04-29 2021-07-20 中国科学院重庆绿色智能技术研究院 一种抖动环境下稀疏样本的标记方法
CN111601433B (zh) * 2020-05-08 2022-10-18 中国传媒大学 舞台灯光效果控制策略的预测方法及装置
CN111798469A (zh) * 2020-07-13 2020-10-20 珠海函谷科技有限公司 基于深度卷积神经网络的数字图像小数据集语义分割方法
CN113204603B (zh) * 2021-05-21 2024-02-02 中国光大银行股份有限公司 金融数据资产的类别标注方法及装置
CN114648097A (zh) * 2022-03-17 2022-06-21 南京优湖科技有限公司 基于深度学习的电梯困人特征解析与时间序列预测模型构建方法、所得模型及预测方法
CN114898220B (zh) * 2022-07-13 2022-09-09 金成技术股份有限公司 一种高空作业车结构件的智能生产控制方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105528623A (zh) * 2016-01-09 2016-04-27 北京工业大学 一种基于地物类别分类冗余字典的成像光谱图像稀疏表示方法
CN110210515A (zh) * 2019-04-25 2019-09-06 浙江大学 一种图像数据多标签分类方法
CN112069978A (zh) * 2020-09-03 2020-12-11 陕西师范大学 基于互信息和字典学习的人脸识别方法

Also Published As

Publication number Publication date
CN115049814A (zh) 2022-09-13

Similar Documents

Publication Publication Date Title
CN115049814B (zh) 采用神经网络模型的护眼灯智能调节方法
CN109614996B (zh) 基于生成对抗网络的弱可见光与红外图像融合的识别方法
CN110443143B (zh) 多分支卷积神经网络融合的遥感图像场景分类方法
CN108875674B (zh) 一种基于多列融合卷积神经网络的驾驶员行为识别方法
CN107609460B (zh) 一种融合时空双重网络流和attention机制的人体行为识别方法
CN109685819B (zh) 一种基于特征增强的三维医学图像分割方法
CN110348399B (zh) 基于原型学习机制和多维残差网络的高光谱智能分类方法
CN110309856A (zh) 图像分类方法、神经网络的训练方法及装置
CN110059586B (zh) 一种基于空洞残差注意力结构的虹膜定位分割***
CN110399821B (zh) 基于人脸表情识别的顾客满意度获取方法
CN108717524B (zh) 一种基于双摄手机和人工智能***的手势识别***
CN112446476A (zh) 神经网络模型压缩的方法、装置、存储介质和芯片
CN110210313A (zh) 基于多尺度pca-3d-cnn空谱联合的高光谱遥感影像分类方法
CN110321967B (zh) 基于卷积神经网络的图像分类改进方法
CN109886161B (zh) 一种基于可能性聚类和卷积神经网络的道路交通标识识别方法
WO2021051987A1 (zh) 神经网络模型训练的方法和装置
CN111652247A (zh) 一种基于深度卷积神经网络的双翅目昆虫识别方法
CN107909008A (zh) 基于多通道卷积神经网络和粒子滤波的视频目标跟踪方法
CN109376787B (zh) 流形学习网络及基于其的计算机视觉图像集分类方法
CN110400288B (zh) 一种融合双眼特征的糖网病识别方法及装置
CN106960185B (zh) 线性判别深度信念网络的多姿态人脸识别方法
CN110110724A (zh) 基于指数型挤压函数驱动胶囊神经网络的文本验证码识别方法
CN110543916A (zh) 一种缺失多视图数据的分类方法及***
CN109543637A (zh) 一种人脸识别方法、装置、设备以及可读存储介质
CN112668486A (zh) 一种预激活残差深度可分离卷积网络面部表情识别方法、装置和载体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: Intelligent adjustment method for eye protection lamps using neural network models

Granted publication date: 20221108

Pledgee: Liaocheng high tech Zone Luxi small loan Co.,Ltd.

Pledgor: Liaocheng hurricane Industrial Design Co.,Ltd.

Registration number: Y2024980009552