CN113158487B - 一种基于长短期记忆深度网络的波前相位差探测方法 - Google Patents

一种基于长短期记忆深度网络的波前相位差探测方法 Download PDF

Info

Publication number
CN113158487B
CN113158487B CN202110501935.8A CN202110501935A CN113158487B CN 113158487 B CN113158487 B CN 113158487B CN 202110501935 A CN202110501935 A CN 202110501935A CN 113158487 B CN113158487 B CN 113158487B
Authority
CN
China
Prior art keywords
training
focus
image
lstm
psf
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110501935.8A
Other languages
English (en)
Other versions
CN113158487A (zh
Inventor
陈荣
李辉
明名
陈慧
张康
曹永刚
曹景太
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian Maritime University
Original Assignee
Dalian Maritime University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian Maritime University filed Critical Dalian Maritime University
Priority to CN202110501935.8A priority Critical patent/CN113158487B/zh
Publication of CN113158487A publication Critical patent/CN113158487A/zh
Application granted granted Critical
Publication of CN113158487B publication Critical patent/CN113158487B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于长短期记忆深度网络的波前相位差探测方法,包括:输入某实际光学***的特征参数并生成训练数据集;根据傅里叶光学原理将训练数据集生成一对焦面PSF图像i1(x,y)和离焦PSF图像i2(x,y);提取上述一对焦面PSF图像i1(x,y)和离焦PSF图像i2(x,y)的特征向量作为输入数据;提取从实际光学***收集的PSF图像序列的特征向量;将PSF图像序列按照时序t输入至完成训练的卷积神经网络模型中确定波面畸变相位从而得到一系列的用于训练的畸变相位参数;生成用于LSTM深度网络训练的输入数据和输出数据,初始化网络参数并反复对LSTM深度网络进行训练直至其损失函数收敛。

Description

一种基于长短期记忆深度网络的波前相位差探测方法
技术领域
本发明涉及网络模型训练领域,尤其涉及一种基于长短期记忆深度网络的波前相位差探测方法。
背景技术
自适应光学技术的出现,使大口径望远镜能够大大克服大气对波前的随机扰动,而波前相差探测技术是其关键技术之一。相位差法(Phase diversity,PD) 利用光学***焦面和离焦面上的两台相机采集波前畸变的图像,并利用数字图像处理的方法,在随机扩展目标的作用下实时解算波前相位差,以重建出高清晰度的目标图像。
从参考物的角度来看,具有波前相位检测能力的探测器分有三种:(1)测量设备内部的主动照明设施做参考,如激光测量法;(2)需要点光源作为参考,如哈特曼探测器、剪切干涉仪;(3)不依赖于点光源,对扩展目标同样可以进行波前探测,如相关哈特曼探测器和基于PD技术的波前探测器。
PD技术光学结构简单、成本低廉、实用性强,但迭代计算量大的缺点制约着PD应用发展。直到近三年出现了使用先进的卷积神经网络(CNN)的PD技术,它证明了深度网络可以绕过分析模型并扩展波前探测器的设计空间。然而基于 CNN的PD技术也存在着精度和计算量的矛盾,只是特别条件下对波前相位畸变产生的图像偏差恢复。没有考虑视宁度、大气环境参数的时变性对结果动态波前估计的影响,导致其结果与望远镜观测范围内的大气瞬时扰动情况不符。
发明内容
根据现有技术存在的问题,本发明公开了一种基于长短期记忆深度网络的波前相位差探测方法,具体包括如下步骤:
输入某实际光学***的波长、光圈大小、焦距、探测器像素大小、离焦长度、瞳孔形状参数信息,输入或随机生成该光学***的畸变相位参数信息,将该***参数信息与畸变相位参数信息融合得到一组组原始数据;
根据傅里叶光学原理从一组原始数据计算得到一对焦面PSF图像i1(x,y)和离焦PSF图像i2(x,y),重复直至生成训练数据集;
提取上述一对焦面PSF图像i1(x,y)和离焦PSF图像i2(x,y)的特征向量作为输入数据,相对应的畸变相位参数信息作为输出数据,反复对卷积神经网络模型进行训练直至其损失函数收敛;
提取从实际光学***收集的PSF图像序列的特征向量;
将PSF图像序列按照时序t输入至完成训练的卷积神经网络模型中确定波面畸变相位从而得到一系列的用于训练的畸变相位参数;
生成用于LSTM深度网络训练的输入数据和输出数据,初始化网络参数并反复对LSTM深度网络进行训练直至其损失函数收敛;
将从实际光学***收集的PSF图像序列输入至LSTM训练模型中进行特征向量的提取;
将实际的光学***参数和获得的特征向量输入至LSTM训练模型获取畸变相位参数的预测结果;
根据实际光学***的焦面图像it1(x,y)、离焦图像it2(x,y)以及预测的畸变相位参数φt按照如下公式重建目标物o(x,y):
itk(x,y)=o(x,y)*htk(x,y)
其中PSF函数为:
Figure BDA0003056736670000021
其中,p代表的是光瞳分布,F-1代表的是傅里叶逆变换,φt为某一时刻的畸变相位,θk表示引入的已知大小的离焦相差。
进一步的,对卷积神经网络模型进行训练时:
S31:对离焦PSF图像i2(x,y)进行平滑去噪、强度正则化和子像素转换预处理获得新离焦PSF图像i2′(x,y);
S32:离焦PSF图像的离散正交切比雪夫矩{tn(x)}满足
Figure BDA0003056736670000022
按如下递推公式分别计算配对图像i1(x,y)的离散正交切比雪夫矩
Figure BDA0003056736670000023
和新离焦PSF图像i2′(x,y)的
Figure BDA0003056736670000024
将其作为特征向量;
Figure BDA0003056736670000031
Figure BDA0003056736670000032
Figure BDA0003056736670000033
其中p=1或者p=2;
S33:将提取的特征向量作为输入矩阵一列,将真实的畸变相位参数y作为输出矩阵一列,生成用于卷积神经网络训练的输入数据和输出数据;
S34:初始化卷积神经网络的网络层数n、输入输出样本个数m以及各层的权重w、偏置b;
S35:针对当前输入输出样本进行卷积神经网络的正向传播:将输入的特征向量经过卷积层处理再到池化层进行降维,再到全连接层进行整合,最后得到畸变相位参数序列预测值
Figure BDA0003056736670000034
S36:进行卷积神经网络的反向传播:将表征真实值与预测值之间的误差的函数称为损失函数loss,通过如下定义的loss计算最后一层l的误差δl,从l层倒推l-1层的权重wl -1和偏置bl-1,以此类推直到第二层的权重和偏置得到更新;
Figure BDA0003056736670000035
S37:选择下一个输入输出样本,转到S35重复执行不断缩小损失值,直到样本用完、则完成卷积神经网络的训练过程。
进一步的,对LSTM深度网络进行训练时:
S61:设图像平面i的强度分布为i=o*s,为了建立波前相位像差s与焦平面图像之间i的精确非线性映射,将此公式转成频域为:I=O·S,其中I,O和S 分别是i,o和s的傅立叶变换F,按如下公式计算焦内和离焦成对图像的特征图像f0
Figure BDA0003056736670000036
P1(ψ)=pexp{jψ}
P2(ψ)=pexp{j(ψ+Δψ)}
Figure BDA0003056736670000037
其中下标1和2分别表示相关变量对应于焦内和离焦两个不同焦平面上的图像,p代表的是光瞳分布向量,F(F-1)代表的是傅里叶(逆)变换,Ψ为某一时刻的畸变相位向量,ΔΨ表示引入的已知大小的离焦相差向量;
S62:将提取的特征图像分解为图像patch序列,此序列作为输入矩阵一列,相应地将真实的畸变相位参数y作为输出矩阵一列,生成用于LSTM神经网络训练的输入数据和输出数据;
S63:初始化LSTM网络层数n、输入输出样本个数m以及各层的权重w、偏置b;
S64:针对当前输入输出样本进行LSTM的正向传播:LSTM中有三个门限分别为遗忘门限ft=σ(wf·[ht-1,xt]+bf)、输入门限it=σ(wi·[ht-1,xt]+bi)和输出门限 ot=σ(wo·[ht-1,xt]+bo),此外还有候选态at=tanh(wa[ht-1,xt]+ba),内部状态 Ct=ft·Ct-1+it·at,其中ht=ot·tanh(Ct),ht为畸变相位参数序列预测值
Figure BDA0003056736670000041
S65:进行LSTM的反向传播:将表征真实值与预测值之间的误差的函数称为损失函数
Figure BDA0003056736670000042
通过loss计算最后一层l的误差δl,从l层倒推l-1 层的ot、at、it、ft的权重wl-1和偏置bl-1,以此类推直到第二层的权重和偏置得到更新loss;
S66:选择下一个输入输出样本,转到S65重复执行不断缩小损失值,直到样本用完,LSTM深度网络训练过程结束。
由于采用了上述技术方案,本发明提供的一种基于长短期记忆深度网络的波前相位差探测方法,该方法基于光学***可以在随机扩展目标的作用下,建立波前畸变的数学模型,对光学***模拟产生不同强度的大气扰动,实时估计图像相位的相位差,分离出大气扰动影响。本发明提出的算法简单且高效,运行速度快,全自动化,在具有已知目标的情况下,能够满足光学***的波前畸变校正等实际需求。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明方法的流程图;
图2为本发明中卷积神经网络模型设计图;
图3为本发明中的LSTM网络模型设计图;
图4为本发明中对LSTM网络模型进行训练时ht计算过程示意图。
具体实施方式
为使本发明的技术方案和优点更加清楚,下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚完整的描述:
如图1所示的一种基于长短期记忆深度网络的波前相位差探测方法,在实施过程中,光学***是采用干涉仪的焦点作为点光源,光束在分光镜的作用下,可以在镜面和探测器上分别得到PSF图像。干涉仪通过稍微倾斜或平移透镜来引入该光学***的相差,可以直接测量光学***的畸变相差。本发明公开的方法具体步骤如下:
S1:输入该光学***参数信息:波长0.6328μm、光圈大小8.5mm、焦距 180mm、探测器像素大小5.5μm、离焦长度2mm、瞳孔直径8.5mm,输入干涉仪测得的畸变相位参数信息1000组;在一定范围内,C4∈[-0.5,0.5]、 C5∈[-0.7,0.7]、C6∈[-0.7,0.7]、C7∈[-0.3,0.3]、C8∈[-0.3,0.3]和C9∈[-0.1,0.1],随机重复生成50000组畸变相位参数C4~C9。将***参数信息与畸变相位参数信息融合得到51000组原始数据;
S2:根据傅里叶光学原理,在上述***参数下从一组原始数据生成一对焦面 PSF图像i1(x,y)和离焦PSF图像i2(x,y),如此计算得到51000对PSF图像组成的训练数据集;
S3:如图2所示,提取上述一对焦面PSF图像i1(x,y)和离焦PSF图像i2(x,y)的特征向量作为输入数据,相对应的畸变相位参数信息作为输出数据,反复对卷积神经网络模型进行训练直至其损失函数收敛;
S4:提取从该光学***收集的PSF图像序列的特征向量;
S5:将PSF图像序列按照时序t输入至完成训练的卷积神经网络模型中确定波面畸变相位,得到一系列的用于训练的畸变相位参数;
S6:生成用于LSTM深度网络训练的输入数据和输出数据,初始化网络参数并反复对LSTM深度网络进行训练直至其损失函数收敛;
S7:将从该光学***收集的PSF图像序列输入至LSTM训练模型中进行特征向量的提取;
S8:将该光学***参数和获得的特征向量输入至LSTM训练模型获取畸变相位参数的预测结果;
S9:根据该光学***的焦面图像it1(x,y)、离焦图像it2(x,y)以及预测的畸变相位参数φt按照如下公式重建目标物o(x,y):
itk(x,y)=o(x,y)*htk(x,y)
其中PSF函为:
Figure BDA0003056736670000061
其中,p代表的是光瞳分布,F-1代表的是傅里叶逆变换,φt为某一时刻的畸变相位,θk表示引入的已知大小的离焦相差。
进一步的,如图3和图4所示,S3中的特征提取、卷积网络设计及其训练,具体采用如下方式:
S31:对离焦PSF图像i2(x,y)进行平滑去噪、强度正则化和子像素转换预处理获得新离焦PSF图像i2′(x,y);
S32:离焦PSF图像的离散正交切比雪夫矩{tn(x)}满足
Figure RE-GDA0003093089040000062
按如下递推公式分别计算配对图像i1(x,y)的离散正交切比雪夫矩
Figure BDA0003056736670000063
和新离焦PSF图像i2′(x,y)的
Figure BDA0003056736670000064
将其作为特征向量;
Figure BDA0003056736670000065
Figure BDA0003056736670000066
Figure BDA0003056736670000067
其中p=1或者p=2。
S33:将提取的特征向量作为输入矩阵一列,相应地将真实的畸变相位参数 y作为输出矩阵一列,生成用于卷积神经网络(CNN)训练的输入数据和输出数据;
S34:初始化CNN的网络层数n、输入输出样本个数m以及各层的权重w、偏置b;
S35:针对当前输入输出样本,进行CNN的正向传播:将输入的特征向量经过卷积层处理,再到池化层进行降维,再到全连接层进行整合,最后得到畸变相位参数序列预测值
Figure BDA0003056736670000068
S36:进行CNN的反向传播:将表征真实值与预测值之间的误差的函数称为损失函数loss,通过如下定义的loss计算最后一层l的误差δl,从l层倒推l-1 层的权重wl-1和偏置bl-1,以此类推直到第二层的权重和偏置得到更新;
Figure BDA0003056736670000071
S37:选择下一个输入输出样本,转到S35重复执行不断缩小损失值,直到样本用完,CNN训练过程结束。
进一步的,S6中,对于一定的相差参数范围,C4∈[-0.5,0.5]、C5∈[-0.7,0.7]、C6∈[-0.7,0.7]、C7∈[-0.3,0.3]、C8∈[-0.3,0.3]和C9∈[-0.1,0.1],随机生成50000相差参数集,我们可以计算出在焦内和离焦平面上对应的50000组PSF图像。对于每组PSF图像,我们可以提取特征图像,然后将其分解为图像patch序列。所生成的相差参数和图像patch序列分别构成输出数据集和输入数据集,然后可以使用这些数据集来训练LSTM深度网络,即将每个光学***参数和提取的特征向量作为输入矩阵的一列,相应的一系列的畸变相位参数作为输出矩阵的一列,按照PSF图像序列的时序重复该过程,生成用于LSTM深度网络训练的输入数据和输出数据,具体LSTM网络设计及其训练过程包括如下步骤:
S61:设图像平面i的强度分布为i=o*s,为了建立波前相位相差s与焦平面图像之间i的精确非线性映射,将此公式转成频域为:I=O·S,其中I,O和S分别是i,o和s的傅立叶变换F,按如下公式计算焦内和离焦成对图像的特征图像 f0
Figure BDA0003056736670000072
P1(ψ)=pexp{jψ}
P2(ψ)=pexp{j(ψ+Δψ)}
Figure BDA0003056736670000073
其中下标1和2分别表示相关变量对应于焦内和离焦两个不同焦平面上的图像,p代表的是光瞳分布向量,F(F-1)代表的是傅里叶(逆)变换,Ψ为某一时刻的畸变相位向量,ΔΨ表示引入的已知大小的离焦相差向量;
S62:将提取的特征图像分解为图像patch序列,此序列作为输入矩阵一列,相应地将真实的畸变相位参数y作为输出矩阵一列,生成用于LSTM神经网络训练的输入数据和输出数据;
S63:初始化LSTM网络层数n、输入输出样本个数m以及各层的权重w、偏置b;
S64:针对当前输入输出样本进行LSTM的正向传播:LSTM中有三个门限分别为遗忘门限ft=σ(wf·[ht-1,xt]+bf)、输入门限it=σ(wi·[ht-1,xt]+bi)和输出门限 ot=σ(wo·[ht-1,xt]+bo),此外还有候选态at=tanh(wa[ht-1,xt]+ba),内部状态 Ct=ft·Ct-1+it·at,其中ht=ot·tanh(Ct),ht为畸变相位参数序列预测值
Figure BDA0003056736670000081
S65:进行LSTM的反向传播:将表征真实值与预测值之间的误差的函数称为损失函数
Figure BDA0003056736670000082
通过loss计算最后一层l的误差δl,从l层倒推l-1 层的ot、at、it、ft的权重wl-1和偏置bl-1,以此类推直到第二层的权重和偏置得到更新loss;
S66:选择下一个输入输出样本,转到S65重复执行不断缩小损失值,直到样本用完,LSTM训练过程结束。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。

Claims (3)

1.一种基于长短期记忆深度网络的波前相位差探测方法,其特征在于包括:
输入某实际光学***的波长、光圈大小、焦距、探测器像素大小、离焦长度、瞳孔形状参数信息,输入或随机生成该光学***的畸变相位参数信息,将该***参数信息与畸变相位参数信息融合得到一组原始数据;
根据傅里叶光学原理从一组原始数据计算得到一对焦面PSF图像i1(x,y)和离焦PSF图像i2(x,y),重复直至生成训练数据集;
提取上述一对焦面PSF图像i1(x,y)和离焦PSF图像i2(x,y)的特征向量作为输入数据,相对应的畸变相位参数信息作为输出数据,反复对卷积神经网络模型进行训练直至其损失函数收敛;
设图像平面i的强度分布为i=o*s,为了建立波前相位像差s与焦平面图像之间i的精确非线性映射,将此公式转成频域为:I=O·S,其中I,O和S分别是i,o和s的傅立叶变换F,按如下公式计算焦内和离焦成对图像的特征图像f0
Figure FDA0003465171200000011
P1(ψ)=pexp{jψ}
P2(ψ)=pexp{j(ψ+Δψ)}
Figure FDA0003465171200000012
其中下标1和2分别表示相关变量对应于焦内和离焦两个不同焦平面上的图像,p代表的是光瞳分布向量,F(F-1)代表的是傅里叶(逆)变换,Ψ为某一时刻的畸变相位向量,ΔΨ表示引入的已知大小的离焦相差向量;
提取从实际光学***收集的PSF图像序列的特征向量;
将提取的特征图像分解为图像patch序列,此序列作为输入矩阵一列,相应地将卷积神经网络模型预测得到的畸变相位参数作为输出矩阵一列,生成用于LSTM神经网络训练的输入数据和输出数据;
将PSF图像序列按照时序t输入至完成训练的卷积神经网络模型中确定波面畸变相位从而得到一系列的用于训练LSTM的畸变相位参数;初始化网络参数并反复对LSTM深度网络进行训练直至其损失函数收敛;
将从实际光学***收集的PSF图像序列输入至LSTM训练模型中进行特征向量的提取;
将实际的光学***参数和获得的特征向量输入至LSTM训练模型获取畸变相位参数的预测结果;
根据实际光学***的焦面图像it1(x,y)、离焦图像it2(x,y)以及预测的畸变相位参数φt按照如下公式重建目标物o(x,y):
itk(x,y)=o(x,y)*htk(x,y)
其中PSF函数为:
Figure FDA0003465171200000021
其中,p代表的是光瞳分布,F-1代表的是傅里叶逆变换,φt为某一时刻的畸变相位,θk表示引入的已知大小的离焦相差。
2.根据权利要求1所述的方法,其特征在于:对卷积神经网络模型进行训练时:
S31:对离焦PSF图像i2(x,y)进行平滑去噪、强度正则化和子像素转换预处理获得新离焦PSF图像i′2(x,y);
S32:离焦PSF图像的离散正交切比雪夫矩{tn(x)}满足
Figure FDA0003465171200000022
按如下递推公式分别计算配对图像i1(x,y)的离散正交切比雪夫矩
Figure FDA0003465171200000023
和新离焦PSF图像i′2(x,y)的
Figure FDA0003465171200000024
将其作为特征向量;
Figure FDA0003465171200000025
Figure FDA0003465171200000026
Figure FDA0003465171200000027
其中p=1或者p=2;
S33:将一对焦面PSF图像i1(x,y)和离焦PSF图像i2(x,y)的特征向量作为卷积神经网络模型的输入数据,相对应的畸变相位参数信息作为输出数据对卷积神经网络模型进行训练;
S34:初始化卷积神经网络的网络层数n、输入输出样本个数m以及各层的权重w、偏置b;
S35:针对当前输入输出样本进行卷积神经网络的正向传播:将输入的特征向量经过卷积层处理再到池化层进行降维,再到全连接层进行整合,最后得到畸变相位参数序列预测值
Figure FDA0003465171200000033
S36:进行卷积神经网络的反向传播:将表征真实值与预测值之间的误差的函数称为损失函数loss,通过如下定义的loss计算最后一层l的误差δl,从l层倒推l-1层的权重wl-1和偏置bl-1,以此类推直到第二层的权重和偏置得到更新;
Figure FDA0003465171200000031
S37:选择下一个输入输出样本,转到S35重复执行不断缩小损失值,直到样本用完、则完成卷积神经网络的训练过程。
3.根据权利要求1所述的方法,其特征在于:当生成用于LSTM神经网络训练的输入数据和输出数据后;
再初始化LSTM网络层数n、输入输出样本个数m以及各层的权重w、偏置b;
针对当前输入输出样本进行LSTM的正向传播:LSTM中有三个门限分别为遗忘门限ft=σ(wf·[ht-1,xt]+bf)、输入门限it=σ(wi·[ht-1,xt]+bi)和输出门限ot=σ(wo·[ht-1,xt]+bo),此外还有候选态at=tanh(wa[ht-1,xt]+ba),内部状态Ct=ft·Ct-1+it·at,其中ht=ot·tanh(Ct),ht为畸变相位参数序列预测值
Figure FDA0003465171200000034
进行LSTM的反向传播:将表征真实值与预测值之间的误差的函数称为损失函数
Figure FDA0003465171200000032
通过loss计算最后一层l的误差δl,从l层倒推l-1层的ot、at、it、ft的权重wl-1和偏置bl-1,以此类推直到第二层的权重和偏置得到更新loss;
选择下一个输入输出样本,转到S65重复执行不断缩小损失值,直到样本用完,LSTM深度网络训练过程结束。
CN202110501935.8A 2021-05-08 2021-05-08 一种基于长短期记忆深度网络的波前相位差探测方法 Active CN113158487B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110501935.8A CN113158487B (zh) 2021-05-08 2021-05-08 一种基于长短期记忆深度网络的波前相位差探测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110501935.8A CN113158487B (zh) 2021-05-08 2021-05-08 一种基于长短期记忆深度网络的波前相位差探测方法

Publications (2)

Publication Number Publication Date
CN113158487A CN113158487A (zh) 2021-07-23
CN113158487B true CN113158487B (zh) 2022-04-12

Family

ID=76873848

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110501935.8A Active CN113158487B (zh) 2021-05-08 2021-05-08 一种基于长短期记忆深度网络的波前相位差探测方法

Country Status (1)

Country Link
CN (1) CN113158487B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114129175A (zh) * 2021-11-19 2022-03-04 江苏科技大学 基于lstm和bp的运动想象脑电信号的分类方法
CN114004342B (zh) * 2021-11-29 2023-05-30 中国科学院光电技术研究所 一种基于lstm网络的激光通信***畸变波前预测方法
CN115641376B (zh) * 2022-10-17 2023-07-21 中国科学院长春光学精密机械与物理研究所 望远镜在轨位姿失调检测方法、装置、设备及介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6787747B2 (en) * 2002-09-24 2004-09-07 Lockheed Martin Corporation Fast phase diversity wavefront correction using a neural network
CN111968099B (zh) * 2020-08-24 2023-01-24 中国科学院长春光学精密机械与物理研究所 一种大口径拼接望远镜共相方法、装置、设备及存储介质
CN112179504A (zh) * 2020-09-27 2021-01-05 中国科学院光电技术研究所 一种基于光栅调制的单帧焦面光强图像深度学习相位差法

Also Published As

Publication number Publication date
CN113158487A (zh) 2021-07-23

Similar Documents

Publication Publication Date Title
CN113158487B (zh) 一种基于长短期记忆深度网络的波前相位差探测方法
Ma et al. Numerical study of adaptive optics compensation based on convolutional neural networks
CN106845024B (zh) 一种基于波前反演的光学卫星在轨成像仿真方法
CN112484968B (zh) 用于光学量测的方法、***、计算设备和存储介质
CN111221123B (zh) 一种基于模型的无波前传感器自适应光学校正方法
CN111579097B (zh) 基于神经网络的高精度光学散射补偿方法
CN112880986B (zh) 基于卷积神经网络的拼接式望远镜平移误差检测方法
Ma et al. Piston sensing for sparse aperture systems with broadband extended objects via a single convolutional neural network
KR102501402B1 (ko) 장면과 관련된 전자기장의 복소 진폭을 결정하는 방법
CN111103120B (zh) 一种基于深度学习的光纤模式分解方法及可读介质
Pinilla et al. Unfolding-aided bootstrapped phase retrieval in optical imaging: Explainable AI reveals new imaging frontiers
KR101166961B1 (ko) 3차원 빔측정을 통한 광학계의 파면수차 복원방법
Rajaoberison et al. Machine learning wavefront sensing for the James Webb Space Telescope
CN115524018A (zh) 一种相位差波前检测的求解方法及***
Allan et al. Deep neural networks to improve the dynamic range of Zernike phase-contrast wavefront sensing in high-contrast imaging systems
CN115294422A (zh) 一种扩展目标超分辨波前复原方法
CN114252163A (zh) 一种基于图像噪声去除的低信噪比子光斑波前复原方法
Yang et al. Iterative framework for a high accuracy aberration estimation with one-shot wavefront sensing
Yu et al. Microscopy image reconstruction method based on convolution network feature fusion
Hu et al. Hybrid method for accurate phase retrieval based on higher order transport of intensity equation and multiplane iteration
CN116704070B (zh) 联合优化的图像重建方法和***
Cheng et al. Dual-camera phase retrieval based on fast adaption image restoration and transport of intensity equation
CN114880953B (zh) 一种四台阶相位型菲涅尔波带片的快速波前复原方法
CN114964524A (zh) 基于离焦光栅和神经网络扩展目标成像波前相位复原方法
Gu et al. In situ fast measurement of the radius of curvature for the plano-convex lens with deep-learning based on the point spread functions

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant