CN113449737B - 一种基于自编码器的单探头声学成像方法及装置 - Google Patents
一种基于自编码器的单探头声学成像方法及装置 Download PDFInfo
- Publication number
- CN113449737B CN113449737B CN202110583899.4A CN202110583899A CN113449737B CN 113449737 B CN113449737 B CN 113449737B CN 202110583899 A CN202110583899 A CN 202110583899A CN 113449737 B CN113449737 B CN 113449737B
- Authority
- CN
- China
- Prior art keywords
- neural network
- super
- parameters
- image
- encoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 62
- 239000000523 sample Substances 0.000 title claims abstract description 27
- 238000013528 artificial neural network Methods 0.000 claims abstract description 113
- 230000006870 function Effects 0.000 claims abstract description 22
- 238000012549 training Methods 0.000 claims abstract description 20
- 238000012360 testing method Methods 0.000 claims abstract description 9
- 238000011478 gradient descent method Methods 0.000 claims abstract description 6
- 230000001131 transforming effect Effects 0.000 claims abstract description 5
- 238000000034 method Methods 0.000 claims description 20
- 210000002569 neuron Anatomy 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 11
- 238000001514 detection method Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 6
- 238000009826 distribution Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 4
- 230000001105 regulatory effect Effects 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 abstract description 2
- 238000012805 post-processing Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000009467 reduction Effects 0.000 description 5
- 239000000463 material Substances 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000005265 energy consumption Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 239000012814 acoustic material Substances 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于自编码器的单探头声学成像方法及装置,首先,构建基于自编码器的超宽频单探头成像***;将预先获取的图像数据分为训练集和测试集;其次,初始化超构神经网络和深度神经网络的参数;然后,将训练集中的图片输入到成像***,通过变换N次超构神经网络的参数来得到N个声强值;将N个声强值输入到深度神经网络中以取得重建的图像;最后,计算重建图像与原图像的损失函数,并用梯度下降法更新声学超构神经网络和深度神经网络的参数,直到测试集的损失函数的值趋于稳定。本发明突破传统成像机制中对于高分辨率传感器阵列或者声场扫描的依赖,将其转换为对超构神经网络的亚波长超材料单元的依赖,降低传感器的工艺要求和成本。
Description
技术领域
本发明属于声学领域,具体涉及一种基于自编码器的单探头声学成像方法及装置。
背景技术
在科学研究和技术实践中,快速且高质量地记录图像有着显著的意义和重要的应用,比如各类光学相机、医学超声成像。但传统的声学高质量成像往往依赖于复杂的高分辨率换能器阵列,或者耗时的声场逐点扫描。而且,由换能器采集的图像信息量相对庞大,其中包含了很多的噪声信号和冗余信息,给图像的存储和后处理带来了极大负担。因此,设计并制造一种高效的小型化高分辨率声学成像***具有非常重要的意义。
另一方面,深度神经网络已经在许多领域取得了惊人的进展,深度学习技术也被整合到图像的后处理中,来完成诸如图像降噪、增强和识别等任务。但是这些工作仍然依赖于由前端的高精度小尺度探头或者探头阵列采集的高分辨率图像数据。这也导致了原始图像的数据量非常庞大,处理所用的神经网络结构也会非常复杂且需要巨大的算力支持和时间消耗。
之前学者提出的由亚波长大小的声学超构材料单元构成的声学超构神经网络,已经可以用来处理诸如物体形状识别等复杂任务。声学超构神经网络比起传统的神经网络有着诸多的优点,比如并行地处理输入的物理场数据,处理过程与波传播相融合极大地缩短了耗时,被动声学材料与波相互作用实现零能耗等。本发明引入声学超构神经网络为基础,类比于自编码器,提出了一种新型的超宽带单探头成像***构建方法。
发明内容
发明目的:本发明提出了一种基于自编码器的单探头声学成像方法及装置,旨在突破传统成像机制中对于高分辨率传感器阵列或者声场扫描的依赖,将其转换为对超构神经网络的亚波长超材料单元的依赖,降低传感器的工艺要求和成本。
技术方案:本发明提供一种基于自编码器的单探头声学成像方法,具体包括以下步骤:
(1)构建基于自编码器的超宽频单探头成像***;所述成像***包括参数可调的超构神经网络构成的编码器和由深度神经网络组成的解码器;
(2)将预先获取的图像数据分为训练集和测试集;
(3)初始化超构神经网络和深度神经网络的参数;
(4)将训练集中的图片输入到成像***,通过变换N次超构神经网络的参数来得到N个声强值;将N个声强值输入到深度神经网络中以取得重建的图像;
(5)计算重建图像与原图像的损失函数,并用梯度下降法更新声学超构神经网络和深度神经网络的参数;
(6)重复步骤(4)和步骤(5)直到测试集的损失函数的值趋于稳定。
进一步地,步骤(1)所述的参数可调的超构神经网络的编码器每层超构神经网络由M个超构神经元构成,超构神经元对入射波施加可调控的幅值与相位变化,作为网络的训练参数,表示为:
其中,W是超构神经元的参数,t和分别是其对入射波施加的幅值和相位变化且可以通过相应的方法进行物理调控。
进一步地,所述步骤(3)包括以下步骤:
(31)初始化作为编码器的超构神经网络参数,一共有N×M×L个参数,N代表每次前向传播过程中超构神经网络需要变换参数的次数,M代表每层超构神经网络所具有的超构神经元的数目,L代表超构神经网络的层数;
(32)初始化作为解码器的深度神经网络的参数,参数在每一次前向传播过程中无需发生变化。
进一步地,所述步骤(4)包括以下步骤:
(41)将原始图像加入噪声,将带有噪声的图像输入到成像***中:
Y=X+Xnoise
其中,X代表原始图像,Y代表带有噪声的图像;
(42)声波在超构神经网络中的传播过程为:
其中,代表输入第l层超构神经网络的声压值,/>代表第l层被动式超构神经网络的参数,/>代表第l层与(l+1)层之间的声传播方程,f代表频率,"°"代表矩阵的点乘,/>代表探测面上的声强分布,S代表探测器所在的区域,Id即探测器所记录的声强值,d代表是第d组超构神经网络对应的声强值;
(44)将图像输入到超构神经网络中,传感器将会接收到一个声强值,将这个声强值记录下来;变换超构神经网络所有参数,此时传感器会接收到另一个不同的声强值,再将其记录下来,如此反复记录N个声强值。
进一步地,步骤(5)所述损失函数为:
其中,x,y分别代表原始输入图像和重建图像,μx和μy代表两幅图像的平均值,δx和δy代表两幅图像的标准差,δxy代表两幅图像的协方差,C1和C2是常数。
基于相同的发明构思,本发明还提供一种基于自编码器的单探头声学成像装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述计算机程序被加载至处理器时实现上述的基于自编码器的单探头声学成像方法。
有益效果:与现有技术相比,本发明的有益效果:单探头传感器只需要接收输入图像经压缩后的N个声强值即可,远小于扫描声场需要接收和存储的信息量(输入图像的总像素量远大于N),极大地缩短了测量时间,降低了存储空间的要求和图像信号后处理的复杂度;重建成像质量不依赖于传感器的空间分辨率,无需成本较高的高分辨率探头;通过在训练过程中引入噪声,使整个***具有降噪功能;所记录的N个声强值代表输入图像,可以直接用来进行后处理,实现图片分类等功能,无需用原图像进行分类(因输入图像的总像素量远大于N,后处理中所需要的分类网络规模将远大于根据N个声强值进行分类),降低了后处理对算力的要求并缩短了处理时间;并利用被动材料与波相互作用来实现了对传感器采集数据的大幅压缩和降噪,为图像后处理提供了很大的便利。
附图说明
图1基于声学超构网络的成像***的示意图;
图2基于声学超构网络的成像***的效果分析图,其中(a)为重建图像与原图像的结构相似度随频率的变化图;(b)为重建图像与原图像的结构相似度随探测区域大小(分辨率)的变化图;(c)为混淆函数;
图3无噪点和带噪点的数字“8”的宽频重建结果图,其中(a)的输入是无噪点的手写体数字;(b)的输入是带噪点的手写体数字;
图4彩色图像的重建图;其中(a)为还原CIFAR-10数据集中的图像;(b)为还原CIFAR-100数据集中的图像。
具体实施方式
下面结合附图对本发明作进一步详细说明。
本发明提供一种基于自编码器的单探头声学成像方法,具体包括以下步骤:
步骤1:构建一种基于自编码器的超宽频单探头成像***。
如图1所示,成像***基于自编码器,分为两个部分,由参数可调的超构神经网络构成的编码器和由深度神经网络组成的解码器。基于参数可调的超构神经网络的编码器,其每层超构神经网络由M个超构神经元构成,超构神经元可以对入射波施加可调控的幅值与相位变化,作为网络的训练参数,可表示为:
其中,W是超构神经元的参数,t和分别是其对入射波施加的幅值和相位变化且可以通过相应的方法进行物理调控。当原始图像入射到所设计的成像***上后,入射波将与超构神经网络相互作用并传播到探测面上,探测面上的单个传感器会记录下此时探测区域的声强值。接着变换超构神经网络的参数分布,传感器会记录下该图像在经过每一组声学超构网络后所产生的声强值(共有N组超构神经网络,每组网络的优化参数通过训练得到)。超构神经网络变换N次即可得到N个声强值,这N个声强值可以看作该图像的特殊线性映射,经过大量图片作为数据集进行训练后,训练好的N组超构神经网络能够将原始图像最主要特征压缩为N个声强值。这N个声场强度值也将作为解码器的输入。基于深度神经网络的解码器,可由这N个声强值还原出原始输入图像。
步骤2:将图像数据分为训练集和测试集,图像数据可以根据具体场景需求求进行构建,也可以采用CIFAR-10等普适性公开图像数据集。
步骤3:初始化超构神经网络和深度神经网络的参数(在参数对应范围内随机生成)。
(3.1)初始化作为编码器的超构神经网络参数,一共有N×M×L个参数,N代表每次前向传播过程中超构神经网络需要变换参数的次数,M代表每层超构神经网络所具有的超构神经元的数目,L代表超构神经网络的层数。为了保证该***的宽带特性,这些参数不会随输入图像所对应声场的频率变化而变化。
(3.2)初始化作为解码器的深度神经网络的参数,不同于超构神经网络,这些参数在每一次前向传播过程中无需发生变化。为了保证该装置的宽带特性,这些参数不会随输入图像所对应声场的频率变化而变化。
步骤4:将训练集中的图片输入到该成像***,通过变换N次超构神经网络的参数来得到N个声强值。将N个声强值输入到深度神经网络中以取得重建的图像。
(4.1)先将原始图像加入噪声,再将带有噪声的图像输入到成像***中,以此来实现成像***具有降噪功能,具体可以表示为:
Y=X+Xnoise
其中,X代表原始图像,Y代表带有噪声的图像。
(4.2)声波在超构神经网络中的传播过程可以用以下的公式表示
其中,代表输入第l层超构神经网络的声压值,/>代表第l层被动式超构神经网络的参数,/>代表第l层与(l+1)层之间的声传播方程,f代表频率,在网络构建中,将频率也纳入到声传播过程中,这样训练出来的成像***便是宽频的,"°"代表矩阵的点乘,/>代表探测面上的声强分布,S代表探测器所在的区域,Id即探测器所记录的声强值,d代表是第d组超构神经网络对应的声强值。该过程是利用被动式的超构神经网络与波的相互作用,超构神经网络会将携带着图像信息的声波进行压缩编码,进而提高了图像采集的效率,而且无能耗。
(4.3)将图像输入到超构神经网络中,传感器将会接收到一个声强值,将这个声强值记录下来。之后变换超构神经网络所有参数,此时传感器会接收到另一个不同的声强值,再将其记录下来,如此反复。将训练N组超构神经网络,所以一共有N个声强值将会被记录下来,这些声强值实际上是图像被压缩后的数据,对于本成像***而言,这N个声强值可以代表整张图像。
步骤5:计算重建图像与原图像的损失函数,并用梯度下降法更新声学超构神经网络和深度神经网络的参数。
用结构相似性函数来作为损失函数,其表达式如下:
其中,x,y分别代表原始输入图像和重建图像,μx和μy代表两幅图像的平均值,δx和δy代表两幅图像的标准差,δxy代表两幅图像的协方差,C1和C2是常数(用于避免分母为0)。
步骤6:重复步骤4和步骤5直到测试集的损失函数的值趋于稳定,此时得到的参数就是该成像***的参数。
基于相同的发明构思,本发明还提供一种基于自编码器的单探头声学成像装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述计算机程序被加载至处理器时实现上述的基于自编码器的单探头声学成像方法。
以带噪点的数字“8”为例,说明如何构建基于自编码器的宽频成像***。使用一层超构神经网络,总共20×20个单元,与输入图像的像素点数目相同,一共有16组超构神经网络,并且使用二值化的超构神经网络,即声波入射到超构神经单元后,要么直接通过超构神经元(W=1),要么被超构神经元吸收(W=0)。深度神经网络有五层,其参数是连续可调的。
首先将训练集中的图像随机选取一部分作为一组原始图像。为了能够说明所设计的成像***具有降噪功能,先将原始图像加上噪点,再将其输入到成像***中。手写体数字图像经过超构神经网络后,在探测面上的传感器会记录下探测到的声强值,此后改变超构材料的参数,将其变换成下一组超构神经网络,传感器就会记录下一组声强值,如此变换15次,传感器就会记录下16个声强值。将这16个声强值输入到深度神经网络中,用这16个声强值重建图像。计算重建图像和原图像(不带噪点的图像)的损失函数,并用梯度下降法来更新超构神经网络和深度神经网络的参数进而降低两者的损失函数。在经过训练之后,构建的超构神经网络就能很好地重建图像了。
如图2(a)所示,构建的成像***是一个宽频的成像***,记录下宽带信号。另外,该成像***无需高分辨率的传感器,实现了传感器的分辨率与重建图像质量间的解耦。在图2(b)中,展示了传感器的分辨率(将其定义为探测区域的横向尺寸)与重建图像的质量之间的关系,可以看出重建图像的质量与传感器的分辨率无关。
图3展示了实验结果,选取的频段是3000Hz-10000Hz,图3(a)中,输入到成像***的是未带噪点的数字“8”,可以看到数字“8”在这个频段内都能被很好地还原出来;图3(b)中,输入到成像***的是带噪点的数字“8”,可以看到在经过成像***之后,噪点被很好地消去了,图像被很清楚地还原出来。
需要指出,此处只用了16组神经网络,只需要16次测量,远远小于传统逐点扫描式方法需要的测量次数(400次测量),且***只需要单传感器,远低于传统传感器阵列的要求。
因为这16个声强值代表整幅图像,所以这16个声强值可被用来进行图像分类。图2(c)展示了混淆矩阵,可以看出分类网络依据这16个值就可以很好地进行图像分类,准确率可以达到0.9259。
以CIFAR-10彩色图像数据集中的彩色图像为例,说明本发明可以完成对复杂图像的成像任务。CIFAR-10彩色图像数据集是由60000张32×32×3的彩色图像组成,将50000张图片作为训练集,10000张图片作为测试集。为了让基于自编码器的成像***能在较宽的频带上还原图像,将50000张拥有红绿蓝三通道的彩色图片拆分成150000张灰色的图片,让训练后的成像***能够在设定频段上还原所有的图像。使用100组的三层超构神经网络,将原始图像提取特征并压缩为100个声强值,每层超构神经网络有32×32个神经元,每个神经元都可以对入射声波进行幅值和相位调控。相比手写体数字图片,CIFAR-10中彩色图片更加复杂,用卷积神经网络来还原图像。
首先将训练集中的图像取出一部分作为一组原始图像,将其输入到超构神经网络中。CIFAR-10中的图像经过超构神经网络后,在探测面上的传感器会记录下探测到的声强值,此后改变超构材料的参数,将其变换成下一组超构神经网络,传感器就会记录下下一组声强值,如此变换99次,传感器就会记录下100个声强值。将这100个声强值输入到深度神经网络中,用这100个声强值重建图像。计算重建图像和原图像(不带噪点的图像)的损失函数,并用梯度下降法来更新超构神经网络和深度神经网络的参数进而降低两者的损失函数。在经过训练之后,构建的超构神经网络就能很好地重建图像了。选取3000-9000Hz这个频段作为所设计的成像***的带宽。
图4(a)展示了模拟结果,因为CIFAR-10数据集将所有图片分为10类,所以每类只列出一张图像,可以看出本发明很好地还原了输入图像。另外,如图4(b),将CIFAR-100的图片输入到用CIFAR-10数据集训练的成像***中,结果也能很好地还原图像。CIFAR-100数据集的图像分为20个大类,100个小类,比起CIFAR-10数据集,它包含更多种类的图片,而本发明依旧可以完成成像任务,这说明本发明是一个泛化性能较好的成像方法,即使是图像与用来训练的数据集差别很大,它也是能够完成成像任务的。
Claims (6)
1.一种基于自编码器的单探头声学成像方法,其特征在于,包括以下步骤:
(1)构建基于自编码器的超宽频单探头成像***;所述成像***包括参数可调的超构神经网络构成的编码器和由深度神经网络组成的解码器;
(2)将预先获取的图像数据分为训练集和测试集;
(3)初始化超构神经网络和深度神经网络的参数;
(4)将训练集中的图片输入到成像***,通过变换N次超构神经网络的参数来得到N个声强值;将N个声强值输入到深度神经网络中以取得重建的图像;
(5)计算重建图像与原图像的损失函数,并用梯度下降法更新声学超构神经网络和深度神经网络的参数;
(6)重复步骤(4)和步骤(5)直到测试集的损失函数的值趋于稳定。
2.根据权利要求1所述的基于自编码器的单探头声学成像方法,其特征在于,步骤(1)所述的参数可调的超构神经网络的编码器每层超构神经网络由M个超构神经元构成,超构神经元对入射波施加可调控的幅值与相位变化,作为网络的训练参数,表示为:
其中,W是超构神经元的参数,t和分别是其对入射波施加的幅值和相位变化且可以通过相应的方法进行物理调控。
3.根据权利要求1所述的基于自编码器的单探头声学成像方法,其特征在于,所述步骤(3)包括以下步骤:
(31)初始化作为编码器的超构神经网络参数,一共有N×M×L个参数,N代表每次前向传播过程中超构神经网络需要变换参数的次数,M代表每层超构神经网络所具有的超构神经元的数目,L代表超构神经网络的层数;
(32)初始化作为解码器的深度神经网络的参数,参数在每一次前向传播过程中无需发生变化。
4.根据权利要求1所述的基于自编码器的单探头声学成像方法,其特征在于,所述步骤(4)包括以下步骤:
(41)将原始图像加入噪声,将带有噪声的图像输入到成像***中:
Y=X+Xnoise
其中,X代表原始图像,Y代表带有噪声的图像;
(42)声波在超构神经网络中的传播过程为:
其中,代表输入第l层超构神经网络的声压值,/>代表第l层被动式超构神经网络的参数,/>代表第l层与(l+1)层之间的声传播方程,f代表频率,/>代表矩阵的点乘,/>代表探测面上的声强分布,S代表探测器所在的区域,Id即探测器所记录的声强值,d代表是第d组超构神经网络对应的声强值;
(43)将图像输入到超构神经网络中,传感器将会接收到一个声强值,将这个声强值记录下来;变换超构神经网络所有参数,此时传感器会接收到另一个不同的声强值,再将其记录下来,如此反复记录N个声强值。
5.根据权利要求1所述的基于自编码器的单探头声学成像方法,其特征在于,步骤(5)所述损失函数为:
其中,x,y分别代表原始输入图像和重建图像,μx和μy代表两幅图像的平均值,δx和δy代表两幅图像的标准差,δxy代表两幅图像的协方差,C1和C2是常数。
6.一种基于自编码器的单探头声学成像装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述计算机程序被加载至处理器时实现根据权利要求1-5任一项所述的基于自编码器的单探头声学成像方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110583899.4A CN113449737B (zh) | 2021-05-27 | 2021-05-27 | 一种基于自编码器的单探头声学成像方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110583899.4A CN113449737B (zh) | 2021-05-27 | 2021-05-27 | 一种基于自编码器的单探头声学成像方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113449737A CN113449737A (zh) | 2021-09-28 |
CN113449737B true CN113449737B (zh) | 2023-11-17 |
Family
ID=77810528
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110583899.4A Active CN113449737B (zh) | 2021-05-27 | 2021-05-27 | 一种基于自编码器的单探头声学成像方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113449737B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107122809A (zh) * | 2017-04-24 | 2017-09-01 | 北京工业大学 | 基于图像自编码的神经网络特征学习方法 |
WO2019100718A1 (zh) * | 2017-11-24 | 2019-05-31 | 无锡祥生医疗科技股份有限公司 | 基于深度学习的优化超声成像***参数的方法 |
CN111832369A (zh) * | 2019-04-23 | 2020-10-27 | ***通信有限公司研究院 | 一种图像识别方法、装置及电子设备 |
CN112347945A (zh) * | 2020-11-10 | 2021-02-09 | 北京航空航天大学 | 一种基于深度学习的含噪遥感图像增强方法及*** |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10726525B2 (en) * | 2017-09-26 | 2020-07-28 | Samsung Electronics Co., Ltd. | Image denoising neural network architecture and method of training the same |
US11367222B2 (en) * | 2018-04-20 | 2022-06-21 | Hewlett-Packard Development Company, L.P. | Three-dimensional shape classification and retrieval using convolutional neural networks and majority vote |
US10740931B2 (en) * | 2018-09-30 | 2020-08-11 | The Board Of Trustees Of The Leland Stanford Junior University | Method for performing magnetic resonance imaging reconstruction with unsupervised deep learning |
-
2021
- 2021-05-27 CN CN202110583899.4A patent/CN113449737B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107122809A (zh) * | 2017-04-24 | 2017-09-01 | 北京工业大学 | 基于图像自编码的神经网络特征学习方法 |
WO2019100718A1 (zh) * | 2017-11-24 | 2019-05-31 | 无锡祥生医疗科技股份有限公司 | 基于深度学习的优化超声成像***参数的方法 |
CN109833061A (zh) * | 2017-11-24 | 2019-06-04 | 无锡祥生医疗科技股份有限公司 | 基于深度学习的优化超声成像***参数的方法 |
CN111832369A (zh) * | 2019-04-23 | 2020-10-27 | ***通信有限公司研究院 | 一种图像识别方法、装置及电子设备 |
CN112347945A (zh) * | 2020-11-10 | 2021-02-09 | 北京航空航天大学 | 一种基于深度学习的含噪遥感图像增强方法及*** |
Non-Patent Citations (4)
Title |
---|
Meta-neural-network for real-time and passive deep-learning-based object recognition;Weng, JK,等;NATURE COMMUNICATIONS;第11卷(第01期);文献号 6309 * |
不同结构深度神经网络的时间域航空电磁数据成像性能分析;李金峰,等;世界地质(第01期);第159-166页 * |
关于声学超构材料名词术语的探讨;黄唯纯,等;中国材料进展;第40卷(第01期);第1-6, 20-21页 * |
声波的"漩涡"——声学轨道角动量的产生、操控与应用;梁彬,等;物理;第46卷(第10期);第658-668页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113449737A (zh) | 2021-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Dua et al. | Comprehensive review of hyperspectral image compression algorithms | |
US20190087726A1 (en) | Hypercomplex deep learning methods, architectures, and apparatus for multimodal small, medium, and large-scale data representation, analysis, and applications | |
Dai et al. | Adaptive image sampling using deep learning and its application on X-ray fluorescence image reconstruction | |
JP2021535689A (ja) | ディープ・ニューラル・ネットワークのための圧縮方法、チップ、電子デバイス、および媒体 | |
CN110084862B (zh) | 基于多尺度小波变换与深度学习的图像压缩感知算法 | |
CN112116065A (zh) | 一种rgb图像光谱重建方法、***、存储介质及应用 | |
CN109657707B (zh) | 一种基于观测矩阵变换维度的图像分类方法 | |
Kasban et al. | Adaptive radiographic image compression technique using hierarchical vector quantization and Huffman encoding | |
CN109146787A (zh) | 一种基于插值的双相机光谱成像***的实时重建方法 | |
CN111598962B (zh) | 基于矩阵草图分析的单像素成像方法和装置 | |
CN114419392A (zh) | 高光谱快照图像恢复方法、装置、设备及介质 | |
CN110349101A (zh) | 一种多尺度联合的小波图像去噪方法 | |
Xiao et al. | Compounded regularization and fast algorithm for compressive sensing deconvolution | |
CN113449737B (zh) | 一种基于自编码器的单探头声学成像方法及装置 | |
CN109766646B (zh) | 一种基于稀疏通道回波数据重建的超声成像方法及装置 | |
CN114842384B (zh) | 一种面向6g的触觉模态信号重建方法 | |
CN115131832A (zh) | 适用于指纹识别的基于先验学习修复的超声导波反演方法 | |
CN114565511A (zh) | 基于全局单应性估计的轻量级图像配准方法、***及装置 | |
Liu et al. | Ensemble CNN in transform domains for image super-resolution from small data sets | |
CN113974560A (zh) | 环形光声层析***稀疏阵元优化选择及压缩感知成像方法 | |
Shang et al. | Deep-learning-driven reliable single-pixel imaging with uncertainty approximation | |
CN114708281B (zh) | 基于自适应非局部特征融合网络的图像压缩感知重建方法 | |
Wang et al. | Image compression based on wavelet transform and vector quantization | |
Fang et al. | Accelerated air-coupled ultrasound imaging of wood using compressed sensing | |
Zhang et al. | Research on single-pixel imaging reconstruction algorithm based on residual attention channel network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |