CN112270397B - 一种基于深度神经网络的颜色空间转换方法 - Google Patents
一种基于深度神经网络的颜色空间转换方法 Download PDFInfo
- Publication number
- CN112270397B CN112270397B CN202011157124.2A CN202011157124A CN112270397B CN 112270397 B CN112270397 B CN 112270397B CN 202011157124 A CN202011157124 A CN 202011157124A CN 112270397 B CN112270397 B CN 112270397B
- Authority
- CN
- China
- Prior art keywords
- layer
- training
- network
- neural network
- dbn
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 66
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 48
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000012549 training Methods 0.000 claims abstract description 56
- 239000002245 particle Substances 0.000 claims abstract description 38
- 238000012360 testing method Methods 0.000 claims abstract description 14
- 210000002569 neuron Anatomy 0.000 claims abstract description 13
- 238000003062 neural network model Methods 0.000 claims abstract description 8
- 238000004519 manufacturing process Methods 0.000 claims abstract description 4
- 238000009826 distribution Methods 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 7
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 3
- 210000004027 cell Anatomy 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 2
- 238000005457 optimization Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Color Image Communication Systems (AREA)
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
本发明公开了一种基于深度神经网络的颜色空间转换方法,具体按照以下步骤实施:步骤1、制作训练样本和测试样本,训练样本用来建立神经网络模型,测试样本用来检验训练完成的模型的转换精度;建立深度置信网络模型;步骤2、使用粒子群算法优化深度置信网络的神经元连接权值等参数;步骤3、将训练样本输入到步骤3进行训练,随后使用BP神经网络进行反向微调,得到稳定的PSO‑DBN模型,得到L*a*b*到CMYK颜色空间转换模型;步骤4、将测试样本输入转换模型进行颜色转换并计算转换误差,检验模型精度,完成颜色空间转换。解决了现有技术中存在的L*a*b*到CMYK颜色空间转换模型转换精度低的问题。
Description
技术领域
本发明属于图像处理技术领域,涉及一种基于深度神经网络的颜色空间转换方法。
背景技术
数码印花机的色彩管理可以分为校准设备、特征化和颜色空间转换三个步骤,颜色空间转换是数码印花色彩管理的重要部分。CMYK颜色空间是应用在数码印花中的色彩标准,描述的是数码印花产品中青(C)、洋红(M)、黄(Y)、黑(K)四种颜色的墨量之间的关系。L*a*b*颜色空间与设备无关,可以作为不同设备之间的连接色空间,广泛应用于数码印花机的色彩评价。L*a*b*中L取值代表明亮度;a值正数范围为红色色域,负数范围为绿色色域;b值正数范围为黄色色域,负数范围为蓝色色域。不同设备对图像具有不同的颜色空间描述方法,其色域具有较大差别,导致数码印花产品与样稿图像之间存在色差。建立转换精度较高的L*a*b*与CMYK颜色空间的转换关系,能很大程度提升数码印花产品质量。
神经网络技术在色彩管理和颜色空间转换应用中受到极大关注。传统的颜色空间转换方法使用浅层神经网络,如BPNN,GRNN和ELM等,它们受其本身结构的影响,在复杂问题下很容易获得局部最优解,其精度难以进一步提高。深度置信网络(Deep Belief Network,DBN)是一种无监督的学习方法,它可以从大量数据中提取特征,并且具有广泛的适应性和强大的映射能力,适合构建颜色空间转换模型。DBN算法的参数往往需要人工凭借经验和多次调整来确定,极大影响了网络实用性。粒子群优化算法(Particle Swarm Optimization,PSO)可对DBN算法的参数进行寻优,最后将最优参数赋给DBN网络,提高DBN的转换精度。
发明内容
本发明的目的是提供一种基于深度神经网络的颜色空间转换方法,解决了现有技术中存在的L*a*b*到CMYK颜色空间转换模型转换精度低的问题。
本发明所采用的技术方案是,一种基于深度神经网络的颜色空间转换方法,具体按照以下步骤实施:
步骤1、制作训练样本和测试样本,训练样本用来建立神经网络模型,测试样本用来检验训练完成的模型的转换精度;建立深度置信网络模型,初始化DBN中输入层、隐含层、输出层各层之间的参数,L*a*b*颜色空间作为神经网络的输入值,CMYK颜色空间作为神经网络的输出值;
步骤2、使用粒子群算法优化深度置信网络的神经元连接权值等参数;
步骤3、将训练样本输入到步骤3进行训练,随后使用BP神经网络进行反向微调,得到稳定的PSO-DBN模型,得到L*a*b*到CMYK颜色空间转换模型;
步骤4、将测试样本输入转换模型进行颜色转换并计算转换误差,检验模型精度,完成颜色空间转换。
本发明的特点还在于:
步骤1中建立深度置信网络模型,初始化DBN中输入层、隐含层、输出层各层之间的参数,L*a*b*颜色空间作为神经网络的输入值,CMYK颜色空间作为神经网络的输出值具体按照以下实施:建立深度置信网络模型,受限玻尔兹曼机是DBN的主要组成部分,DBN的训练过程可以分为两个阶段,即预训练和反向微调;首先,采用无监督贪婪学习算法逐层训练网络中的每个RBM,并逐层传递数据特征信息,以实现网络参数的初始化;随后,使用BP神经网络算法进行微调,通过从顶部到底部的预训练获得的初始权重;该过程进行监督训练,使模型得到最优解,从而确定整个DBN网络的结构。
步骤1中RBM的无监督训练具体按照以下实施:
在RBM中,v1,v2,…表示可见层,h1,h2,…表示隐藏层,wij表示每个神经元连接的权重;引入能量函数来定义***的总能量,并计算联合分布概率;
在上式中θ={a,b,w},wij是可见层和隐含层之间的连接权重,V是可见层中的单元数,H是隐含中的单元数,ai是可见层的偏移量,aj是隐藏层的偏移量;根据定义的***能量,可见和隐藏单元的联合分布定义如下。
Z=∑v′∑h′e-E(v′,h′|θ) 3
在上式中,Z是归一化因子,保证联合概率在[0,1]的范围内变化。因此,隐藏层的边缘分布如下:
由于RBM每一层中的神经元都是独立的,因此可以根据以下关系式获得每个单元的激活概率;
p(vi=I|h)=f(ai+∑jhjwij) 5
p(hi=I|v)=f(bj+∑iviwij) 6。
步骤1中DBN网络的训练过程具体按照以下实施:
步骤1.1,设结点状态表示为Fi,Fj表示与结点i相连的结点j的状态,权重矩阵为W;随机选取一个训练样本,将其数据输入到第一个RBM的可见层,依公式(7)更新第一层隐含层各结点的状态Fj,其中σ∈[0,1]。
步骤1.2,利用步骤2.1求出的隐含结点状态Fj,依据公式(8)更新第一个RBM可见结点状态,记为F'i;
步骤1.3,将上一步求得的第一个RBM的隐含层结点状态F'i作为第二个RBM的输入,再按照上述步骤逐层更新DBN网络的各结点状态,直至将四个RBM结点更新完毕;
步骤1.4,根据公式(9)计算网络权重值,更新网络中的权重矩阵,直到网络的权重矩阵的变化量足够小或达到设定的最高训练次数,结束DBN训练;
Δωij=η(<FiFj>-<F'iF'j>) 9。
步骤2具体按照以下步骤实施:
步骤2.1,对数据集进行预处理,首先初始化DBN神经网络中的参数,以此确定粒子的维度;
步骤2.2,初始化粒子群各参数,对4层隐藏层DBN,每层分别有m1、m2、m3和m4个神经元,学习率η∈[0,1);因此设定粒子群中的每一个粒子为一个四维向量X(m1,m2,m3,m4,η);
步骤2.3,利用公式(10)计算各个粒子的适应度函数值,求出个体极值Pbest和群体极值Gbest;
其中,N为样本总数目;m为粒子的维数;aij、bij分别为第i个样本的第j维数据的预测值和实际值;
步骤2.4,比较各粒子的适应度值与Pbest的大小;若适应度大于个体极值,则将其更新为Pbest,反之保持不变。同样步骤得出全局最优值Gbest;
步骤2.5,更新各粒子的速度和位置。如果达到最大迭代次数,则迭代结束并输出最终参数,否则继续搜索最佳粒子位置。
步骤3具体按照以下步骤实施:
步骤3.1,将步骤3中的最优解拆分为DBN的各个参数,并输入DBN网络进行训练,得到稳定的神经网络模型;
步骤3.2,将训练样本L*a*b*颜色空间中的3个分量值作为神经网络输入,CMYK颜色空间4个分量的值作为神经网络输出,训练PSO-DBN网络。
本发明的有益效果是:本发明一种基于深度神经网络的颜色空间转换方法,解决了现有技术中存在的颜色空间转换方法转换精度低的问题。针对传统颜色空间转换方法转换精度低,神经网络算法易陷入局部最小值等问题,通过粒子群算法优化深度置信网络解决了传统浅层颜色转换方法转换精度低的缺陷,同时转换模型具有很高的稳定性。
附图说明
图1是本发明一种基于深度神经网络的颜色空间转换方法的流程示意图;
图2是本发明一种基于深度神经网络的颜色空间转换方法中深度置信网络结构图;
图3是本发明一种基于深度神经网络的颜色空间转换方法中粒子群算法优化深度置信网络算法流程图;
图4是本发明一种基于深度神经网络的颜色空间转换方法中建立了L*a*b*到CMYK颜色空间转换模型的流程图
图5是本发明一种基于深度神经网络的颜色空间转换方法的实施例中验证所设计的颜色空间转换方法的转换色差统计图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明一种基于深度神经网络的颜色空间转换方法,如图1所示,具体按照以下步骤实施:
步骤1、制作训练样本和测试样本,训练样本用来建立神经网络模型,测试样本用来检验训练完成的模型的转换精度;建立深度置信网络模型,初始化DBN中输入层、隐含层、输出层各层之间的参数,L*a*b*颜色空间作为神经网络的输入值,CMYK颜色空间作为神经网络的输出值;
步骤1中建立深度置信网络模型,初始化DBN中输入层、隐含层、输出层各层之间的参数,L*a*b*颜色空间作为神经网络的输入值,CMYK颜色空间作为神经网络的输出值具体按照以下实施:建立深度置信网络模型,如图2所示,受限玻尔兹曼机(RestrictedBoltzmann Machine,RBM)是DBN的主要组成部分,DBN的训练过程可以分为两个阶段,即预训练和反向微调;首先,采用无监督贪婪学习算法逐层训练网络中的每个RBM,并逐层传递数据特征信息,以实现网络参数的初始化;随后,使用BP神经网络算法进行微调,通过从顶部到底部的预训练获得的初始权重;该过程进行监督训练,使模型得到最优解,从而确定整个DBN网络的结构。
步骤1中RBM的无监督训练具体按照以下实施:
在RBM中,v1,v2,…表示可见层,h1,h2,…表示隐藏层,wij表示每个神经元连接的权重;引入能量函数来定义***的总能量,并计算联合分布概率;
在上式中θ={a,b,w},wij是可见层和隐含层之间的连接权重,V是可见层中的单元数,H是隐含中的单元数,ai是可见层的偏移量,aj是隐藏层的偏移量;根据定义的***能量,可见和隐藏单元的联合分布定义如下。
Z=∑v′∑h′e-E(v′,h′|θ) 3
在上式中,Z是归一化因子,保证联合概率在[0,1]的范围内变化。因此,隐藏层的边缘分布如下:
由于RBM每一层中的神经元都是独立的,因此可以根据以下关系式获得每个单元的激活概率;
p(vi=I|h)=f(ai+∑jhjwij) 5
p(hi=I|v)=f(bj+∑iviwij) 6。
步骤1中DBN网络的训练过程具体按照以下实施:
步骤1.1,设结点状态表示为Fi,Fj表示与结点i相连的结点j的状态,权重矩阵为W;随机选取一个训练样本,将其数据输入到第一个RBM的可见层,依公式(7)更新第一层隐含层各结点的状态Fj,其中σ∈[0,1]。
步骤1.2,利用步骤2.1求出的隐含结点状态Fj,依据公式(8)更新第一个RBM可见结点状态,记为F'i;
步骤1.3,将上一步求得的第一个RBM的隐含层结点状态F'i作为第二个RBM的输入,再按照上述步骤逐层更新DBN网络的各结点状态,直至将四个RBM结点更新完毕;
步骤1.4,根据公式(9)计算网络权重值,更新网络中的权重矩阵,直到网络的权重矩阵的变化量足够小或达到设定的最高训练次数,结束DBN训练;
Δωij=η(<FiFj>-<F'iF'j>) 9。
步骤2、使用粒子群算法优化深度置信网络的神经元连接权值等参数;
如图3所示,步骤2具体按照以下步骤实施:
步骤2.1,对数据集进行预处理,首先初始化DBN神经网络中的参数,以此确定粒子的维度;
步骤2.2,初始化粒子群各参数,对4层隐藏层DBN,每层分别有m1、m2、m3和m4个神经元,学习率η∈[0,1)。因此设定粒子群中的每一个粒子为一个四维向量X(m1,m2,m3,m4,η);
步骤2.3,利用公式(10)计算各个粒子的适应度函数值,求出个体极值Pbest和群体极值Gbest;
其中,N为样本总数目;m为粒子的维数;aij、bij分别为第i个样本的第j维数据的预测值和实际值;
步骤2.4,比较各粒子的适应度值与Pbest的大小;若适应度大于个体极值,则将其更新为Pbest,反之保持不变。同样步骤得出全局最优值Gbest;
步骤2.5,更新各粒子的速度和位置。如果达到最大迭代次数,则迭代结束并输出最终参数,否则继续搜索最佳粒子位置。
步骤3、将训练样本输入到步骤3进行训练,随后使用BP神经网络进行反向微调,得到稳定的PSO-DBN模型,得到L*a*b*到CMYK颜色空间转换模型;
如图4所示,步骤3具体按照以下步骤实施:
步骤3.1,将步骤3中的最优解拆分为DBN的各个参数,并输入DBN网络进行训练,得到稳定的神经网络模型;
步骤3.2,将训练样本L*a*b*颜色空间中的3个分量值作为神经网络输入,CMYK颜色空间4个分量的值作为神经网络输出,训练PSO-DBN网络。
步骤4、将测试样本输入转换模型进行颜色转换并计算转换误差,检验模型精度,完成颜色空间转换。
实施例
本实例的运行平台为Windows 10,仿真环境使用MATLAB R2016a,使用PANTONETCX色卡作为该实验的样本数据集,对色卡所有2310个色块进行编号,并使用MATLAB软件随机生成了1到2310范围内的800个随机数,这些随机数对应于编号为800的颜色块作为训练样本。L*a*b*值作为输入,使用对应的CMYK值用作输出,以训练网络并创建非线性映射。然后,从色卡中剩余的1510个色块中随机选择另外50个色块作为测试样本。
将50个测试样本输入颜色空间转换模型,得到50个CMYK预测值,与实际CMYK值进行对比,分别计算出C、M、Y、K四个分量的平均转换误差。如图5所示,可以看出L*a*b*到CMYK颜色空间转换精度较高。
本发明一种基于深度神经网络的颜色空间转换方法,将L*a*b*颜色空间转换为CMYK颜色空间。L*a*b*和CMYK分别对应深度置信网络的输入和输出值。使用粒子群算法优化深层置信网络的连接权值等参数,提高了深度置信网络的性能。其工作过程如下:建立数据集;确定深度置信神经网络结构并对参数进行初始化;通过粒子群优化深度置信神经网络的权值;最终得到稳定的神经网络模型。可实现数码印花中任意L*a*b*到CMYK颜色空间转换功能。该方法提高了颜色空间转换精度,并有较高转换效率。
Claims (1)
1.一种基于深度神经网络的颜色空间转换方法,其特征在于,具体按照以下步骤实施:
步骤1、制作训练样本和测试样本,训练样本用来建立神经网络模型,测试样本用来检验训练完成的模型的转换精度;建立深度置信网络模型,初始化DBN中输入层、隐含层、输出层各层之间的参数,L*a*b*颜色空间作为神经网络的输入值,CMYK颜色空间作为神经网络的输出值;
所述步骤1中建立深度置信网络模型,初始化DBN中输入层、隐含层、输出层各层之间的参数,L*a*b*颜色空间作为神经网络的输入值,CMYK颜色空间作为神经网络的输出值具体按照以下实施:建立深度置信网络模型,受限玻尔兹曼机是DBN的主要组成部分,DBN的训练过程可以分为两个阶段,即预训练和反向微调;首先,采用无监督贪婪学习算法逐层训练网络中的每个RBM,并逐层传递数据特征信息,以实现网络参数的初始化;随后,使用BP神经网络算法进行微调,通过从顶部到底部的预训练获得的初始权重;该过程进行监督训练,使模型得到最优解,从而确定整个DBN网络的结构;
所述步骤1中RBM的无监督训练具体按照以下实施:
在RBM中,,/>,…表示可见层,/>,/>,…表示隐藏层,/>表示每个神经元连接的权重;引入能量函数来定义***的总能量,并计算联合分布概率;
(1)
在上式中,/>是可见层和隐含层之间的连接权重,/>是可见层中的单元数,/>是隐含中的单元数,/>是可见层的偏移量,/>是隐藏层的偏移量;根据定义的***能量,可见和隐藏单元的联合分布定义如下:
(2)
(3)
在上式中,是归一化因子,保证联合概率在[0,1]的范围内变化,因此,隐藏层的边缘分布如下:
(4)
由于RBM每一层中的神经元都是独立的,因此可以根据以下关系式获得每个单元的激活概率 ;
(5)
(6);
所述步骤1中DBN网络的训练过程具体按照以下实施:
步骤1.1,设结点状态表示为Fr,Ft表示与结点r相连的结点t的状态,权重矩阵为;随机选取一个训练样本,将其数据输入到第一个RBM的可见层,依公式(7)更新第一层隐含层各结点的状态Ft,其中/>,
(7)
步骤1.2,利用步骤1.1求出的隐含结点状态Ft,依据公式(8)更新第一个RBM可见结点状态,记为Ft’;
(8)
步骤1.3,将上一步求得的第一个RBM的隐含层结点状态Ft’作为第二个RBM的输入,再按照上述步骤逐层更新DBN网络的各结点状态,直至将四个RBM结点更新完毕;
步骤1.4,根据公式(9)计算网络权重值,更新网络中的权重矩阵,直到网络的权重矩阵的变化量足够小或达到设定的最高训练次数,结束DBN训练;
(9);
步骤2、使用粒子群算法优化深度置信网络的神经元连接权值等参数;
所述步骤2具体按照以下步骤实施:
步骤2.1,对数据集进行预处理,首先初始化DBN神经网络中的参数,以此确定粒子的维度;
步骤2.2,初始化粒子群各参数,对4层隐藏层DBN,每层分别有、/>、/>和/>个神经元,学习率/>;因此设定粒子群中的每一个粒子为一个四维向量 />;
步骤2.3,利用公式(10)计算各个粒子的适应度函数值,求出个体极值和群体极值;
(10)
其中,n为样本总数目;为粒子的维数;/>、/>分别为第x个样本的第y维数据的预测值和实际值;
步骤2.4,比较各粒子的适应度值与的大小;若适应度大于个体极值,则将其更新为,反之保持不变,同样步骤得出全局最优值/>;
步骤2.5,更新各粒子的速度和位置,如果达到最大迭代次数,则迭代结束并输出最终参数,否则继续搜索最佳粒子位置;
步骤3、将训练样本输入到步骤3进行训练,随后使用BP神经网络进行反向微调,得到稳定的PSO-DBN模型,得到L*a*b*到CMYK颜色空间转换模型;
所述步骤3具体按照以下步骤实施:
步骤3.1,将步骤3中的最优解拆分为DBN的各个参数,并输入DBN网络进行训练,得到稳定的神经网络模型;
步骤3.2,将训练样本L*a*b*颜色空间中的3个分量值作为神经网络输入,CMYK颜色空间4个分量的值作为神经网络输出,训练PSO-DBN网络;
步骤4、将测试样本输入转换模型进行颜色转换并计算转换误差,检验模型精度,完成颜色空间转换。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011157124.2A CN112270397B (zh) | 2020-10-26 | 2020-10-26 | 一种基于深度神经网络的颜色空间转换方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011157124.2A CN112270397B (zh) | 2020-10-26 | 2020-10-26 | 一种基于深度神经网络的颜色空间转换方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112270397A CN112270397A (zh) | 2021-01-26 |
CN112270397B true CN112270397B (zh) | 2024-02-20 |
Family
ID=74342437
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011157124.2A Active CN112270397B (zh) | 2020-10-26 | 2020-10-26 | 一种基于深度神经网络的颜色空间转换方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112270397B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113119447B (zh) * | 2021-03-19 | 2022-08-30 | 西安理工大学 | 一种彩色3d打印色彩空间转换的方法 |
CN113409206A (zh) * | 2021-06-11 | 2021-09-17 | 西安工程大学 | 一种高精度的数码印花颜色空间转换方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102111626A (zh) * | 2009-12-23 | 2011-06-29 | 新奥特(北京)视频技术有限公司 | 一种rgb到cmyk色彩空间的转换方法和装置 |
CN102110428A (zh) * | 2009-12-23 | 2011-06-29 | 新奥特(北京)视频技术有限公司 | 一种cmyk到rgb色彩空间的转换方法和装置 |
CN103383743A (zh) * | 2013-07-16 | 2013-11-06 | 南京信息工程大学 | 一种色度空间变换方法 |
CN103729695A (zh) * | 2014-01-06 | 2014-04-16 | 国家电网公司 | 基于粒子群和bp神经网络的短期电力负荷预测方法 |
CN103729678A (zh) * | 2013-12-12 | 2014-04-16 | 中国科学院信息工程研究所 | 一种基于改进dbn模型的水军检测方法及*** |
WO2019101720A1 (en) * | 2017-11-22 | 2019-05-31 | Connaught Electronics Ltd. | Methods for scene classification of an image in a driving support system |
KR101993752B1 (ko) * | 2018-02-27 | 2019-06-27 | 연세대학교 산학협력단 | 신경망을 이용한 영상 컬러 일치 방법 및 장치 |
CN110475043A (zh) * | 2019-07-31 | 2019-11-19 | 西安工程大学 | 一种CMYK到Lab颜色空间的转换方法 |
-
2020
- 2020-10-26 CN CN202011157124.2A patent/CN112270397B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102111626A (zh) * | 2009-12-23 | 2011-06-29 | 新奥特(北京)视频技术有限公司 | 一种rgb到cmyk色彩空间的转换方法和装置 |
CN102110428A (zh) * | 2009-12-23 | 2011-06-29 | 新奥特(北京)视频技术有限公司 | 一种cmyk到rgb色彩空间的转换方法和装置 |
CN103383743A (zh) * | 2013-07-16 | 2013-11-06 | 南京信息工程大学 | 一种色度空间变换方法 |
CN103729678A (zh) * | 2013-12-12 | 2014-04-16 | 中国科学院信息工程研究所 | 一种基于改进dbn模型的水军检测方法及*** |
CN103729695A (zh) * | 2014-01-06 | 2014-04-16 | 国家电网公司 | 基于粒子群和bp神经网络的短期电力负荷预测方法 |
WO2019101720A1 (en) * | 2017-11-22 | 2019-05-31 | Connaught Electronics Ltd. | Methods for scene classification of an image in a driving support system |
KR101993752B1 (ko) * | 2018-02-27 | 2019-06-27 | 연세대학교 산학협력단 | 신경망을 이용한 영상 컬러 일치 방법 및 장치 |
CN110475043A (zh) * | 2019-07-31 | 2019-11-19 | 西安工程大学 | 一种CMYK到Lab颜色空间的转换方法 |
Non-Patent Citations (3)
Title |
---|
基于PSO-DBN神经网络的光伏短期发电出力预测;李正明等;《电力***保护与控制》;20200416;第48卷(第8期);引言、第2、3.3、4.3节 * |
张雷洪.《色彩管理与实务》.2018,85-87. * |
王攀等.《优化与控制中的软计算方法研究》.2017,110-111. * |
Also Published As
Publication number | Publication date |
---|---|
CN112270397A (zh) | 2021-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112270397B (zh) | 一种基于深度神经网络的颜色空间转换方法 | |
CN108805200B (zh) | 基于深度孪生残差网络的光学遥感场景分类方法及装置 | |
CN110475043B (zh) | 一种CMYK到Lab颜色空间的转换方法 | |
CN112507793A (zh) | 一种超短期光伏功率预测方法 | |
CN110349185B (zh) | 一种rgbt目标跟踪模型的训练方法及装置 | |
CN109410917A (zh) | 基于改进型胶囊网络的语音数据分类方法 | |
CN112347970B (zh) | 一种基于图卷积神经网络的遥感影像地物识别方法 | |
CN111160553B (zh) | 一种新的领域自适应学习方法 | |
CN114897837A (zh) | 基于联邦学习与自适应差分的电力巡检图像缺陷检测方法 | |
CN114429219A (zh) | 一种面向长尾异构数据的联邦学习方法 | |
CN109801218B (zh) | 基于多层耦合卷积神经网络的多光谱遥感图像Pan-sharpening方法 | |
CN112468230B (zh) | 一种基于深度学习的无线紫外光散射信道估计方法 | |
CN112560603B (zh) | 一种基于小波图像的水声数据集扩充方法 | |
CN115409157A (zh) | 一种基于学生反馈的无数据知识蒸馏方法 | |
CN116343157A (zh) | 一种道路路面裂缝深度学习提取方法 | |
CN116933141B (zh) | 一种基于多核图学习的多光谱激光雷达点云分类方法 | |
CN110059718A (zh) | 基于多类多注意力机制的细粒度检测方法 | |
CN117056763A (zh) | 基于变分图嵌入的社区发现方法 | |
CN117035061A (zh) | 一种自适应联邦学习权重聚合方法 | |
CN116362328A (zh) | 一种基于公平性特征表示的联邦学习异构模型聚合方法 | |
CN113486929B (zh) | 基于残差收缩模块与注意力机制的岩石薄片图像识别方法 | |
CN113409206A (zh) | 一种高精度的数码印花颜色空间转换方法 | |
CN116010832A (zh) | 联邦聚类方法、装置、中心服务器、***和电子设备 | |
CN115062690A (zh) | 一种基于域自适应网络的轴承故障诊断方法 | |
CN114463569A (zh) | 一种基于优化自适应度量学习的图像匹配方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |