CN116645300A - 一种简单透镜点扩散函数估计方法 - Google Patents
一种简单透镜点扩散函数估计方法 Download PDFInfo
- Publication number
- CN116645300A CN116645300A CN202310528965.7A CN202310528965A CN116645300A CN 116645300 A CN116645300 A CN 116645300A CN 202310528965 A CN202310528965 A CN 202310528965A CN 116645300 A CN116645300 A CN 116645300A
- Authority
- CN
- China
- Prior art keywords
- point spread
- spread function
- psf
- single lens
- generated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000012549 training Methods 0.000 claims abstract description 19
- 238000013528 artificial neural network Methods 0.000 claims abstract description 18
- 230000009466 transformation Effects 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 claims description 101
- 238000003384 imaging method Methods 0.000 claims description 31
- 238000004364 calculation method Methods 0.000 claims description 11
- 238000005457 optimization Methods 0.000 claims description 10
- 238000001228 spectrum Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 7
- 238000009826 distribution Methods 0.000 claims description 6
- 230000003595 spectral effect Effects 0.000 claims description 6
- 238000009827 uniform distribution Methods 0.000 claims description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 101100173586 Schizosaccharomyces pombe (strain 972 / ATCC 24843) fft2 gene Proteins 0.000 claims description 3
- 239000006185 dispersion Substances 0.000 claims description 3
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 238000009499 grossing Methods 0.000 claims 1
- 239000000126 substance Substances 0.000 claims 1
- 238000003062 neural network model Methods 0.000 abstract description 5
- 238000012545 processing Methods 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000004075 alteration Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/10—Image enhancement or restoration using non-spatial domain filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20056—Discrete and fast Fourier transform, [DFT, FFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种简单透镜点扩散函数估计方法,包括以下步骤:根据单透镜特点生成的点扩散函数作用于清晰图像,得到模拟的单透镜模糊图像;所述的单透镜模糊图像经过傅里叶变换到频域,作为端到端神经网络的输入,生成估计的点扩散函数;所述的估计的点扩散函数与所述的生成的点扩散函数计算损失函数,并推动端到端神经网络参数随训练迭代而更新;获得最终估计的点扩散函数。本发明对单透镜点扩散函数做精准的参数化建模与生成,使得生成的点扩散函数更加符合单透镜特点,提供了一系列的图像处理技术特征,最后利用生成对抗的神经网络模型获得更加精准的点扩散函数。
Description
技术领域
本发明涉及数字图像处理领域,具体指一种应用于简单透镜成像的点扩散函数(Point Spread Function,PSF)估计方法。
背景技术
近年来,随着计算摄影技术和光学设计的不断发展,简单透镜计算成像技术逐渐成为一个新的研究方向。简单透镜成像是指光通过单一镜片在焦平面成实像的现象。相比于传统的复杂镜头成像,简单透镜成像可以显著降低成像***的经济成本,但成像效果受到简单镜头光路无法在焦平面汇聚为一点的影响,会呈现出模糊的现象。点扩散函数是点光源发射的光通过透镜或镜头在焦平面上成像的函数表示。根据场景通过透镜所得的模糊图像估计简单透镜在不同成像分块位置的点扩散函数,是对所成模糊图像进行图像复原的前序步骤之一。
关于单透镜计算成像,现在提出了不同的方法估计单透镜光学成像***的PSF。专利ZL.201410064041.7提出了一种单透镜成像的PSF快速标定方法,该方法对N个PSF值求取平均值,作为某类单透镜的PSF模板,并以该PSF模板作为PSF校正过程的迭代初始值,以快速估计得到单透镜的PSF。专利ZL.201510222290.9提出一种基于对称性的单透镜计算成像PSF快速标定方法,该方法利用单透镜PSF的空间对称性特点,将已估计出的图像块PSF作为其对称的图像块PSF估计的初始值,以此减少估计PSF所需的迭代过程,减少PSF估计时间。专利ZL.201510379305.2提出一种基于稀疏表示的单透镜计算成像PSF估算方法,该方法将目标函数中的清晰图像表示为过完备字典和稀疏系数的乘积,并对稀疏系数进行约束,然后通过迭代优化算法依次交替估计出模糊核、过完备字典和稀疏系数,从而估算出单透镜的PSF。
随着单透镜计算成像技术研究的不断发展和对图像质量要求的提高,现有方法虽然可以估计单透镜的PSF,但是所估计出的PSF精度已无法满足单透镜计算成像的实际需求。简单透镜成像总体上呈现像的中心区域畸变小、周边区域畸变大的特点。因此,不能使用单一点扩散函数对整个简单透镜成像建模,而要根据成像区域到像中心的距离,将像划分成为分块逐个建模。
发明内容
本发明为克服现有技术中的问题,旨在提供一种简单透镜点扩散函数估计方法,以解决现有PSF估计方法不够精确的问题。
本发明的目的是通过如下技术方案实现的,基于直觉模糊的复杂网络博弈攻击方策略优化方法,所述方法包括:
一种简单透镜点扩散函数估计方法,包括以下步骤:
步骤1,根据单透镜特点生成的点扩散函数作用于清晰图像,得到模拟的单透镜模糊图像;
步骤2,所述的单透镜模糊图像经过傅里叶变换到频域,作为端到端神经网络的输入,生成估计的点扩散函数;
步骤3,所述的估计的点扩散函数与所述的生成的点扩散函数计算损失函数,并推动端到端神经网络参数随训练迭代而更新;
步骤4,获得最终估计的点扩散函数。
具体地,步骤1中所述的点扩散函数的生成过程包括如下步骤:
对单透镜点扩散函数做参数化建模与生成;
设生成星形多边形的角个数为n,外径为Do∈Rn,内径为Di∈Rn,偏离角为Ar∈Rn,记外径、内径的第k个维度分别为和/>,用均匀分布随机初始化外径:内径初始化计算公式为:/>其中,r~U(0.1,0.3)随机生成,/>表示外径的第l-1个维度,偏离角采用均匀分布初始化;
根据参数计算星形多边形顶点坐标{Pk=(xk,yk)|k=1,…,2n},xk表示第k个顶点的横坐标,yk表示第k个顶点的纵坐标,记星形多边形顶点的极坐标角度A0∈R2n+1,且 表示第0个顶点的极坐标角度暨初始极坐标角度,记生成的星形多边形顶点的极坐标角度A∈R2n+1,且/> Ak表示极坐标角度A的第k个维度,/>表示极坐标角度A的第k个维度与初始极坐标角度的差值,并通过随机生成获取,当k为偶数时,生成的星形多边形顶点坐标计算公式如下:
当k为奇数时计算公式如下:
筛选出在星形多边形SP内部的点集合G={(i,j)|(i,j)∈Sp},i表示星形多边形内部点的横坐标,j表示星形多边形内部的的纵坐标;
对点位能量进行建模:E(i,j)=αexp(-β‖i2+j2‖),其中,α,β为待定常数,‖·‖表示计算绝对值,点位能量应满足能量总和为1的约束,即∏(i,j)∈GE(i,j)=1;
由此可得:α=1/(∏(i,j)∈Gexp(-β‖i2+j2‖)),待定常数β表征点扩散函数能量的分散程度;
待定常数确定后,计算出星形多边形内的点扩散函数能量分布,获得生成的点扩散函数{E(i,j)|i,j=1,…,m},其中m∈N+为点扩散函数的尺寸。
优选地,所述的生成的点扩散函数为点扩散函数能量分布与平滑卷积核κ的卷积:PSF=E*κ。
优选地,平滑卷积核
待定系数β~U(0.004,0.008)。
具体地,根据单透镜特点生成的点扩散函数作用于清晰图像的过程中,清晰图像分块y与生成的点扩散函数PSF做卷积,得到模拟的单透镜模糊图像分块x,即:x=y*PSF;单透镜模糊图像经过傅里叶变换到频域的过程中,将模糊图像分块x先通过二维离散傅里叶变换转换为频域图像,并将零频点移动到频谱中央:X=fftshift(fft2(x)),fft2(·)表示二维离散傅里叶变换,fftshift(·)表示将零频点移动到频谱中央,再计算功率谱密度:其中函数real(·)和imag(·)分别表示提取频域图像的实部和虚部。
具体地,所述的端到端神经网络的输入为某一分块频域模糊图像的功率谱密度,输出为单透镜某一分块估计的点扩散函数;
所述的端到端神经网络采用生成对抗的形式训练,其中,生成器采用U-Net结构,记为Gθ(·),其中θ为模型参数集合,生成器训练的损失函数为:
LG=λ‖Gθ(S)-PSF‖1+PSF·(Gθ(S)-PSF)2+‖Dφ(Gθ(S))-1‖2
其中,第一分项为保真项,λ为系数,Gθ(S)表示参数集为θ的U-Net,‖·‖1表示计算1-范数;第二分项为形状先验,突出真值PSF对模型输出的影响,PSF表示生成的点扩散函数;第三分项为真实性项,通过判别器Dφ(·)判别结果与1的差的平方度量生成器所生成结果与真值PSF真实性的差异,‖·‖2表示计算2-范数;其中φ为判别器的模型参数集合;
判别器Dφ(·)采用残差分类网络ResNet-34,训练损失函数为:
LD=‖Dφ(PSF)-1‖2+‖Dφ(Gθ(S))-0‖2
第一分项使得判别器趋向识别真实PSF为真,第二分项使得判别器趋向识别生成器Gθ(·)生成的PSF为假。
优选地,λ=100。
具体地,所述的端到端神经网络的模型训练采用随机梯度下降法,批大小为8,优化算子采用Adam算子,初始学习率为1e-4,每间隔2万次迭代学习率减小为当前的1/10,直到学习率减小到1e-7;总训练迭代次数为20万次;每一次迭代优化时,先计算生成器损失函数,通过优化算子计算梯度更新生成器参数θ;再计算判别器损失函数,通过优化算子计算梯度更新生成器参数φ。
更进一步地,将分块后的单透镜成像图转为灰度图,再将灰度图的功率谱密度输入训练后的生成器Gθ(·),输出即为估计的单透镜成像图各个子块的点扩散函数。
附图说明
图1示出了本发明实施例的流程示意图;
图2示出了本发明实施例的单透镜结构图;
图3示出了本发明实施例的单透镜成像分块划分图;
图4示出了本发明实施例中点扩散函数的估计流程示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅仅是本发明一部份实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,一种简单透镜点扩散函数估计方法,包括以下步骤:
步骤1,根据单透镜特点生成的点扩散函数作用于清晰图像,得到模拟的单透镜模糊图像;
步骤2,所述的单透镜模糊图像经过傅里叶变换到频域,作为端到端神经网络的输入,生成估计的点扩散函数;
步骤3,所述的估计的点扩散函数与所述的生成的点扩散函数计算损失函数,并推动端到端神经网络参数随训练迭代而更新;
步骤4,获得最终估计的点扩散函数。
如图2所示,简单透镜成像可以显著降低成像***的经济成本,但成像效果受到简单镜头光路无法在焦平面汇聚为一点的影响,会呈现出模糊的现象。根据场景通过透镜所得的模糊图像估计简单透镜在不同成像分块位置的点扩散函数,是对所成模糊图像进行图像复原的前序步骤之一。
本实施例的图像划分方法如图3所示。先将4:3比例的单透镜成像划分为12×9个方块,再逐块进行模糊核估计。
本实施例提出的单透镜点扩散函数估计流程如图4所示。根据单透镜特点生成的点扩散函数作用于清晰图像,得到模拟的单透镜模糊图像。该图像经过傅里叶变换到频域并提取实部,作为端到端神经网络的输入,生成估计的点扩散函数。估计的点扩散函数与生成的点扩散函数计算损失函数,并推动神经网络参数随训练迭代而更新。
点扩散函数(PSF)生成。由于加工精度问题,简单透镜的分块点扩散函数的实际测量结果呈现不规则“四角星”形状。为此需要对单透镜点扩散函数做参数化建模与生成。设生成星形多边形的角个数为n,外径为Do∈Rn,内径为Di∈Rn,偏离角为Ar∈Rn。记外径、内径的第k个维度分别为和/>。用均匀分布随机初始化外径
内径初始化计算如公式(2)
其中r~U(0.1,0.3)随机生成。偏离角Ai同外径一样,采用公式(1)的均匀分布初始化。
根据参数计算星形多边形顶点坐标{Pk=(xk,yk)|k=1,…,2n.}。记星形多边形顶点的极坐标角度A0∈R2n+1,且
记生成的星形多边形顶点的极坐标角度A∈R2n+1且
则生成的星形多边形顶点坐标记当k为偶数时采用公式(5)计算
当k为奇数时采用公式(6)计算
根据星形多边形顶点坐标生成点扩散函数{E(i,j)|i,j=1,…,m.},其中m∈N+为点扩散函数的尺寸。首先筛选出在星形多边形SP内部的点集合G={(i,j)|(i,j)∈Sp};其次,对点位能量进行建模:
E(i,j)=αexp(-β‖i2+j2‖). (7)
其中α,β为待定常数。点位能量应满足能量总和为1的约束,即
∏(i,j)∈GE(i,j)=1 (8)
将公式(7)带入(8)可得
α=1/(∏(i,j)∈Gexp(-β‖i2+j2‖)) (9)
待定常数β表征点扩散函数能量的分散程度,通常取β~U(0.004,0.008)。当常数β确定,可根据公式(8)推算出常数α,再根据公式(7)计算出星形多边形内的点扩散函数能量分布。
利用卷积平滑点扩散函数。以上步骤生成的点扩散函数可能存在边缘不连续的问题,为此构造平滑卷积核κ,最终点扩散函数PSF为能量分布E与平滑卷积核κ的卷积
PSF=E*κ (10)
其中卷积核取
神经网络模型的输入数据处理。首先,将清晰图像分块y与S3步骤生成的点扩散函数PSF做卷积,得到仿真单透镜成像的模糊图像分块x,即
x=y*PSF (12)
其次,单透镜所成的模糊图像在频域的功率谱密度与单透镜点扩散函数形态存在相关性。因此,将模糊图像分块x先通过二维离散傅里叶变换(fft2)转换为频域图像并将零频点移动到频谱中央(fftshift)
X=fftshift(fft2(x)) (13)
再计算其功率谱密度
其中函数real(·)和imag(·)分别表示提取频域图像的实部和虚部。
S5.神经网络模型的结构与训练方法。神经网络模型输入为某一分块频域模糊图像的功率谱密度S;输出为估计的单透镜某一分块点扩散函数。模型采用生成对抗的形式训练,生成神经网络模型结构采用U-Net结构,记为Gθ(·),其中θ为模型参数集合。生成器U-Net模型训练的损失函数为
LG=λ‖Gθ(S)-PSF‖1+PSF·(Gθ(S)-PSF)2+‖Dφ(Gθ(S))-1‖2 (15)
其中第一项为保真项,系数λ=100;第二项为形状先验,突出真值PSF对模型输出的影响;第三项为真实性项,通过判别器Dφ(·)判别结果与1的差的平方度量生成网络所生成结果与真值PSF真实性的差异;其中φ为判别器的模型参数集合。判别器Dφ(·)采用残差分类网络ResNet-34实现,其训练损失函数为
LD=‖Dφ(PSF)-1‖2+‖Dφ(Gθ(S))-0‖2 (16)
第一项使得模型趋向识别真实PSF为真,第二项使得模型趋向识别生成器Gθ(·)生成的PSF为假。
模型训练和参数优化采用随机梯度下降法,批大小为8,优化算子采用Adam算子,初始学习率为1e-4,每间隔2万次迭代学习率减小为当前的1/10,直到学习率减小到1e-7;总训练迭代次数为20万次;每一次迭代优化时,先通过公式(15)计算生成器损失函数,通过优化算子计算梯度更新生成器参数θ;再通过公式(16)计算判别器损失函数,通过优化算子计算梯度更新生成器参数φ。
单透镜的点扩散函数估计。将分块后的单透镜成像图转为灰度图,再将其灰度图的功率谱密度输入神经网络Gθ(·),神经网络输出即为估计的单透镜成像图各个子块的点扩散函数。
本领域技术人员应明白,本申请的实施例可提供为方法、***或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
Claims (10)
1.一种简单透镜点扩散函数估计方法,其特征在于,包括以下步骤:
步骤1,根据单透镜特点生成的点扩散函数作用于清晰图像,得到模拟的单透镜模糊图像;
步骤2,所述的单透镜模糊图像经过傅里叶变换到频域,作为端到端神经网络的输入,生成估计的点扩散函数;
步骤3,所述的估计的点扩散函数与所述的生成的点扩散函数计算损失函数,并推动端到端神经网络参数随训练迭代而更新;
步骤4,获得最终估计的点扩散函数。
2.根据权利要求1所示的一种简单透镜点扩散函数估计方法,其特征在于,步骤1中所述的点扩散函数的生成过程包括如下步骤:
对单透镜点扩散函数做参数化建模与生成;
设生成星形多边形的角个数为n,外径为Do∈Rn,内径为Di∈Rn,偏离角为Ar∈Rn,记外径、内径的第k个维度分别为和/>用均匀分布随机初始化外径:内径初始化计算公式为:/>其中,r~U(0.1,0.3)随机生成,/>表示外径的第k-1个维度,偏离角采用均匀分布初始化;
根据参数计算星形多边形顶点坐标{Pk=(xk,yk)|k=1,…,2n},xk表示第k个顶点的横坐标,yk表示第k个顶点的纵坐标,记星形多边形顶点的极坐标角度A0∈R2n+1,且 表示第0个顶点的极坐标角度暨初始极坐标角度,记生成的星形多边形顶点的极坐标角度A∈R2n+1,且/> Ak表示极坐标角度A的第k个维度,/>表示极坐标角度A的第k个维度与初始极坐标角度的差值,并通过随机生成获取,当k为偶数时,生成的星形多边形顶点坐标计算公式如下:
当k为偶数
当k为奇数时计算公式如下:
当k为奇数
筛选出在星形多边形SP内部的点集合G={(i,j)|(i,j)∈Sp},i表示星形多边形内部点的横坐标,j表示星形多边形内部的的纵坐标;
对点位能量进行建模:E(i,j)=αexp(-β‖i2+k2‖),其中,α,β为待定常数,‖·‖表示计算绝对值,点位能量应满足能量总和为1的约束,即∏(i,j)∈GE(i,j)=1;
由此可得:α=1/(∏(i,j)∈Gexp(-β‖i2+j2‖)),待定常数β表征点扩散函数能量的分散程度;
待定常数确定后,计算出星形多边形内的点扩散函数能量分布,获得生成的点扩散函数。
3.根据权利要求2所示的一种简单透镜点扩散函数估计方法,其特征在于,所述的生成的点扩散函数为点扩散函数能量分布E与平滑卷积核κ的卷积:PSF=E*κ。
4.根据权利要求3所示的一种简单透镜点扩散函数估计方法,其特征在于,平滑卷积核
5.根据权利要求2所示的一种简单透镜点扩散函数估计方法,其特征在于,待定系数β~U(0.004,0.008)。
6.根据权利要求1所示的一种简单透镜点扩散函数估计方法,其特征在于,根据单透镜特点生成的点扩散函数作用于清晰图像的过程中,清晰图像分块y与生成的点扩散函数PSF做卷积,得到模拟的单透镜模糊图像分块x,即:x=y*PSF;单透镜模糊图像经过傅里叶变换到频域的过程中,将模糊图像分块x先通过二维离散傅里叶变换转换为频域图像,并将零频点移动到频谱中央:X=fftshift(fft2(x)),fft2(·)表示二维离散傅里叶变换,fftshift(·)表示将零频点移动到频谱中央,再计算功率谱密度:其中函数real(·)和imag(·)分别表示提取频域图像的实部和虚部。
7.根据权利要求6所示的一种简单透镜点扩散函数估计方法,其特征在于,所述的端到端神经网络的输入为某一分块频域模糊图像的功率谱密度,输出为单透镜某一分块估计的点扩散函数;
所述的端到端神经网络采用生成对抗的形式训练,其中,生成器采用U-Net结构,记为Gθ(·),其中θ为模型参数集合,生成器训练的损失函数为:
LG=λ‖Gθ(S)-PSF‖1+PSF·(Gθ(S)-PSF)2+‖Dφ(Gθ(S))-1‖2
其中,第一分项为保真项,λ为系数,Gθ(S)表示参数集为θ的U-Net,‖·‖1表示计算1-范数;第二分项为形状先验,突出真值PSE对模型输出的影响,PSF表示生成的点扩散函数;第三分项为真实性项,通过判别器Dφ(·)判别结果与1的差的平方度量生成器所生成结果与真值PSF真实性的差异,‖·‖2表示计算2-范数;其中φ为判别器的模型参数集合;
判别器Dφ(·)采用残差分类网络ResNet-34,训练损失函数为:
LD=‖Dφ(PSF)-1‖2+‖Dφ(Gθ(S))-0‖2
第一分项使得判别器趋向识别真实PSF为真,第二分项使得判别器趋向识别生成器Gθ(·)生成的PSF为假。
8.根据权利要求7所示的一种简单透镜点扩散函数估计方法,其特征在于,λ=100。
9.根据权利要求7所示的一种简单透镜点扩散函数估计方法,其特征在于,所述的端到端神经网络的模型训练采用随机梯度下降法,批大小为8,优化算子采用Adam算子,初始学习率为1e-4,每间隔2万次迭代学习率减小为当前的1/10,直到学习率减小到1e-7;总训练迭代次数为20万次;每一次迭代优化时,先计算生成器损失函数,通过优化算子计算梯度更新生成器参数θ;再计算判别器损失函数,通过优化算子计算梯度更新生成器参数φ。
10.根据权利要求1所示的一种简单透镜点扩散函数估计方法,其特征在于,将分块后的单透镜成像图转为灰度图,再将灰度图的功率谱密度输入训练后的生成器Gθ(·),输出即为估计的单透镜成像图各个子块的点扩散函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310528965.7A CN116645300A (zh) | 2023-05-11 | 2023-05-11 | 一种简单透镜点扩散函数估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310528965.7A CN116645300A (zh) | 2023-05-11 | 2023-05-11 | 一种简单透镜点扩散函数估计方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116645300A true CN116645300A (zh) | 2023-08-25 |
Family
ID=87639133
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310528965.7A Pending CN116645300A (zh) | 2023-05-11 | 2023-05-11 | 一种简单透镜点扩散函数估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116645300A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117876720A (zh) * | 2024-03-11 | 2024-04-12 | 中国科学院长春光学精密机械与物理研究所 | 用于评价psf图像相似性的方法 |
-
2023
- 2023-05-11 CN CN202310528965.7A patent/CN116645300A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117876720A (zh) * | 2024-03-11 | 2024-04-12 | 中国科学院长春光学精密机械与物理研究所 | 用于评价psf图像相似性的方法 |
CN117876720B (zh) * | 2024-03-11 | 2024-06-07 | 中国科学院长春光学精密机械与物理研究所 | 用于评价psf图像相似性的方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Bako et al. | Kernel-predicting convolutional networks for denoising Monte Carlo renderings. | |
Yin et al. | Highly accurate image reconstruction for multimodal noise suppression using semisupervised learning on big data | |
CN110378844B (zh) | 基于循环多尺度生成对抗网络的图像盲去运动模糊方法 | |
CN113487739A (zh) | 一种三维重建方法、装置、电子设备及存储介质 | |
CN116645300A (zh) | 一种简单透镜点扩散函数估计方法 | |
CN113450396A (zh) | 基于骨骼特征的三维/二维图像配准方法及装置 | |
CN113095333A (zh) | 无监督特征点检测方法及装置 | |
CN109410158B (zh) | 一种基于卷积神经网络的多焦点图像融合方法 | |
CN111179333B (zh) | 一种基于双目立体视觉的散焦模糊核估计方法 | |
Dinesh et al. | 3D point cloud color denoising using convex graph-signal smoothness priors | |
Kollem et al. | Image denoising by using modified SGHP algorithm | |
CN114283058A (zh) | 基于对抗网络和最大互信息优化的图像超分辨率重建方法 | |
US20100322472A1 (en) | Object tracking in computer vision | |
Shabanian et al. | A novel factor graph-based optimization technique for stereo correspondence estimation | |
Piriyatharawet et al. | Image denoising with deep convolutional and multi-directional LSTM networks under Poisson noise environments | |
CN112767269B (zh) | 全景图像去雾方法与装置 | |
CN112750156B (zh) | 光场成像***、处理方法和装置 | |
CN115439669A (zh) | 基于深度学习的特征点检测网络及跨分辨率图像匹配方法 | |
Zhang et al. | Steganography with Generated Images: Leveraging Volatility to Enhance Security | |
Tian et al. | A modeling method for face image deblurring | |
CN114764746A (zh) | 激光雷达的超分辨率方法和装置、电子设备及存储介质 | |
CN108256633B (zh) | 一种测试深度神经网络稳定性的方法 | |
Sahragard et al. | Image restoration by variable splitting based on total variant regularizer | |
Rai et al. | Learning to generate atmospheric turbulent images | |
CN115863204B (zh) | 晶片加工用在线厚度监视和测量方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |