CN116309921A - 基于cuda技术的延迟求和声成像并行加速方法 - Google Patents

基于cuda技术的延迟求和声成像并行加速方法 Download PDF

Info

Publication number
CN116309921A
CN116309921A CN202310446933.2A CN202310446933A CN116309921A CN 116309921 A CN116309921 A CN 116309921A CN 202310446933 A CN202310446933 A CN 202310446933A CN 116309921 A CN116309921 A CN 116309921A
Authority
CN
China
Prior art keywords
convolution
matrix
delay
cross spectrum
feature map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310446933.2A
Other languages
English (en)
Inventor
涂晓彤
马晨雨
伍健雄
张勇华
丁兴号
黄悦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen University
Original Assignee
Xiamen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen University filed Critical Xiamen University
Priority to CN202310446933.2A priority Critical patent/CN116309921A/zh
Publication of CN116309921A publication Critical patent/CN116309921A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/15Correlation function computation including computation of convolution operations
    • G06F17/153Multidimensional correlation or convolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Algebra (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

基于CUDA技术的延迟求和声成像并行加速方法,属于声信号处理领域及神经网络领域,用于解决传统延迟求和算法计算复杂度高等问题。包括以下步骤:1)假定转向矢量是具有空间排布的,将转向矢量整体视为特征图;2)将特征图中的每个条形向量与互谱矩阵依次进行矩阵运算且运算后通道数保持不变;3)将和互谱矩阵做完运算的结果与原始的转向矢量相乘,得到最终该条形特征向量的功率。将互谱矩阵和转向矢量的大维度矩阵设计成卷积网络,利用GPU并行加速运算,结果能够比传统的延迟求和算法的运算时间提高将近100倍,从而达到在工业应用中的实时成像需求。

Description

基于CUDA技术的延迟求和声成像并行加速方法
技术领域
本发明属于声学成像领域及深度神经网络领域,尤其是涉及一种基于CUDA技术的延迟求和声成像并行加速方法。
背景技术
在日常生活中,人耳可以听到各种声音并进行识别定位,通常我们称其为“听声辨位”。具体来说,有人发出声音的时候,人耳可以轻易知道发声人在什么方位;并且人耳也可轻易判断出一辆从身边驶过的汽车的来车方向,甚至能大致知道汽车有多远。然而,人耳的原始声音定位功能毕竟只是为了解决生活和生存的问题,定位精度非常有限。为了更加准确地对声音信号进行接受和定位,基于麦克风阵列的波束成像技术开始被人们关注,让“声音可见”的声学成像技术也由此被广泛应用。
声学成像又称声学相机,是指利用麦克风阵列采集多通道音频数据,在指定频率下使用波束形成算法计算出扫描平面上的声源分布信息,然后将声源分布信息与实景图像融合,在直观的融合图像上就能快速确定声源的空间位置和产生来源(Oliver Lylloff,EfrénFernández-Grande,Finn Agerkvist,
Figure BDA0004195978270000011
Hald,Elisabet Tiana Roig,andMartin S Andersen.2015.Improving the efficiency of deconvolution algorithmsfor sound source localization.The journal of the acoustical society ofAmerica 138,1(2015),172–180)。
声学成像技术将声音信息转换成图像信号使得空间声源的分布可视化,目前,该技术已广泛应用于交通运输、噪声检测和工业异常检测等各个领域(Roberto Merino-Martínez,Pieter Sijtsma,Mirjam Snellen,Thomas Ahlefeldt,Jerome Antoni,ChristopherJ Bahr,Daniel Blacodon,Daniel Ernst,Arthur Finez,Stefan Funke,et al.2019.Areview of acoustic imaging methods using phased microphone arrays.CEASAeronautical Journal 10,1(2019),197–230)。如波音公司、NASA利用声学成像技术在各类声学风洞试验中探测定位机体或喷射器的噪声而且技术已经做得相当成熟;OptiNav公司研发的BeamformX软件***内部集成多种声学成像算法,并统一命名为OptiNav BF波束形成;此外,该公司还研发泄露检测仪-压缩空气泄露检测和识别***,能够清晰提供泄漏源识别图像和视频。
利用信号延迟的相移特性,延迟求和算法(Delay And Sum,DAS)(Don H Johnsonand Dan EDudgeon.1992.Array signal processing:concepts and techniques.Simon&Schuster,Inc;Barry DVan Veen and Kevin M Buckley.1988.Beamforming:A versatileapproach to spatial filtering.IEEE assp magazine 5,2(1988),4–24)通过延迟补偿和加权求和,提供稳健、快速和直观的成像结果。延迟求和算法描述声学成像的核心思想:利用波束形成和时间差反演出声源分布并输出图像式结果。但该算法却存在计算量大、计算速度慢等问题,导致参数量过高以及计算资源冗余的现象(Austin Reiter andMuyinatu ALediju Bell.2017.A machine learning approach to identifying pointsource locations in photoacoustic data.In Photons Plus Ultrasound:Imaging andSensing 2017,Vol.10064.International Society for Optics and Photonics,100643J),使得该算法不能满足日常工业生产的需求。
发明内容
本发明的目的在于针对现有技术中存在的上述问题,提供避免模型复杂、计算时间长的、方便落地应用,解决传统延迟求和算法计算复杂度高等问题,达到实际生产应用的需求,同时也将声音信息转换成图像信号使得空间声源的分布可视化,从而将声音准确定位的一种基于CUDA技术的延迟求和声成像并行加速方法。
本发明提供一种基于CUDA技术的延迟求和声成像并行加速网络,包括频点筛选单元、卷积单元以及分组卷积单元;
所述频点筛选单元用于选择位于扫描频率范围内的最大值点,使得计算过程不必引入没有值的点,减少不必要的计算时间;
所述卷积单元用于将转向矢量特征图作为输入,将互谱矩阵与转向矢量的大维度矩阵进行卷积神经网络的卷积运算以产生卷积数据矩阵,提高运算效率;
所述分组卷积单元用于进行卷积处理时,将整个输入特征沿着通道的方向划分为成N组分别进行卷积运算,以减少运算的参数,提高运算效率。
进一步的,所述频点筛选单元通过采样点数以及采样分辨率获得扫描频率范围内的采样值作为麦克风通道的输入信号,在该输入信号中选取数值最大的几个采样点参与后续矩阵运算,以提高计算效率。
本发明提供一种基于CUDA技术的延迟求和声成像并行加速方法,包括以下步骤:
1)假定转向矢量是具有空间排布的,将转向矢量整体视为特征图;
2)将步骤1)特征图中的每个条形向量作为卷积单元的输入与互谱矩阵依次进行矩阵运算且运算后通道数保持不变;
3)将步骤2)矩阵运算的结果与原始的转向矢量经过分组卷积单元进行矩阵的运算,得到最终该条形特征向量的功率。
在步骤1)中,所述将转向矢量整体视为特征图,可将转向矢量视为41×41×64×21的特征图,其中41×41是扫描的声平面的网格点数,设扫描平面大小为[-2,2米,扫描分辨率为0.1米;64是麦克风阵列的阵元数,21是从扫描频率范围内每个麦克风通道筛选出的频谱峰值较大的频点数,由频点筛选单元计算得出扫频范围内最大的21个频率点,该转向矢量作为特征图的输入参与后续的卷积运算。
在步骤2)中,所述卷积单元将步骤1)中所得特征图与互谱矩阵进行卷积运算,对于特征图上的每一个pixel,其矩阵运算的步骤是一样的,这使得该过程具备卷积化的潜力,由于不同网格点对应的互谱矩阵是一样的,只是转向矢量不同,互谱矩阵可视为1344×64×1×1的特征向量,即可将互谱矩阵视为1344个64通道的1×1卷积核,转向矢量特征图与互谱矩阵卷积运算后,再与每个卷积输出通道的每个通道进行加权,最终卷积层得到1×1344×41×41的特征。
在步骤3)中,将步骤2)中得到的特征图与转向矢量依次卷积运算,得到最终该网格点的功率,经过分组卷积单元卷积运算,实现麦克风多通道信号并行处理,最终得到整个扫描平面上所有网格点的声功率;与传统的DAS算法将不同麦克风信号和不同频点用for循环串行处理而后相加不同,通过卷积运算,能够实现麦克风多通道信号和各个频点并行处理,极大程度上缩短计算时间,提高计算效率。
所述分组卷积单元将输入特征矩阵分为21个组,每个组的输入维度是
Figure BDA0004195978270000031
同时,卷积核被分成21个组,每个组的维度是/>
Figure BDA0004195978270000032
然后每个组分别卷积,输出/>
Figure BDA0004195978270000033
维度的结果,最后将每个组得到的结果级联构成最终的结果;分组卷积使用更小的参数量实现与标准卷积相同的结果,提高模型运算速度,同时分组卷积的实现使得模型在多GPU上的多分枝模型并行学习的方式促进模型训练更加高效,模型更优。
与现有技术相比,本发明具有以下有益效果:
1、本发明采用声学信号处理与卷积神经网络相结合,多通道并行处理,提取声成像有效特征,提高模型处理的速度,简化模型,减少计算的冗余度。
2、本发明能减少运行时间,便于模型投入实际工业应用中。
3、本发明能准确进行声信号的定位,在较差环境下的定位效果也较精确、具有很好的鲁棒性和适用性。
附图说明
图1为模拟麦克风阵列时域信号定位流程图。
图2为本发明实施例的卷积运算过程图。
具体实施方式
为了使本发明所要解决的技术问题、技术方案及有益效果更为清晰,以下结合附图和实施例,对本发明进行进一步详细说明。
本发明实施例包括以下步骤:
步骤1、声源建模:一个给定声源产生的声波随传播距离的不同将呈现不同的相位。因此,阵列中的每个麦克风将“感知”不同的相位,从而确定声源位置。
大多数标准波束形成技术都假设源与观测者之间的距离足够大,麦克风阵列直径足够小,忽视声源的方向性,从而能够很好地逼近复杂声源。
声波在连续介质中的传播可以用Navier-Stokes方程精确表示。然而,在大多数日常和工业应用中,声波的传播可以被认为是线性等熵现象。因此,复杂的Navier-Stokes方程可以显著地简化为(Helmholtz)波动方程,仍然能够准确地反映声波的传播现象。
Figure BDA0004195978270000041
其中,c0是声速,
Figure BDA0004195978270000042
是拉普拉斯算子,q(t)表示单极声源,x0为声源的位置,狄拉克函数δ(x-x0)提供声源的几何位置信息,x为麦克风阵列的位置,p为麦克风阵列接收到的声信号。在没有声源的情况下,上面方程的右边等于零。
非齐次波动方程具有自由场解(无反射或固体边界):
Figure BDA0004195978270000043
这说明声波传播的一些重要方面。
1.声压的振幅与观察距离(|x-x0|)成反比衰减。
2.t时刻的声压观测与前一时刻的源特性|x-x0|/c0有关。也就是说,声源信息在介质中以有限速度c0传播。因此,声波束形成的一个关键概念是延迟时间(t0),正式定义为:
Figure BDA0004195978270000044
步骤2、时域信号处理:如图1所示,有M个麦克风阵元的阵列,在声源预计所在平面上设置搜索网格,扫描平面被分成N×N个网格点,麦克风阵列与扫描平面的距离为z。定位流程如下:
1.确定声源可能位于的平面,将该平面划分为(矩形)网格;
2.扫描每个网格节点。对于每个节点,每个麦克风测量到的时间信号按各自的延迟时间延迟(t0=|x-x0|/c0);
3.将每个麦克风的信号相加并除以麦克风数M,得到波束形成器输出图。
波束输出的数学表达式为:
Figure BDA0004195978270000051
其中,pm为每个麦克风测量到的信号,M为麦克风个数,x0为声源位置,x为麦克风位置。
步骤2.1、获取麦克风阵列时域数据:由采样率和持续时间得到每个麦克风通道的采样点数2400进行分帧,获取声源点到信号中心的距离,声压级公式为:
Figure BDA0004195978270000052
其中,amp为信号功率,通过从源到阵列中心的距离进行缩放以获得中心处给定的SPL,则通过采样得到2400×64维度的麦克风时域信号。
步骤3、频域信号处理:频域波束形成公式从自由场单极子解傅立叶变换开始:
Figure BDA0004195978270000053
在频域内,传播时延(t0)用复数
Figure BDA0004195978270000054
表示,其中,P(x,x0,ω)为每个麦克风测量到的信号的频域表示,Q(ω)为声源信号的频域表示。
波束形成的傅立叶变换为:
Figure BDA0004195978270000055
其中,定义.g(x,x0,ω)是转向矢量:
Figure BDA0004195978270000056
麦克风收到信号的傅里叶变换:
Figure BDA0004195978270000061
波束形成Z(ω)可以表示为矩阵形式:
Figure BDA0004195978270000062
输出信号的功率可以用L(x)=|Z|2计算:
Figure BDA0004195978270000063
定义交叉谱矩阵(Cross-Spectral Matrix,CSM):
Figure BDA0004195978270000064
定义一个网格点的权重矢量wn
Figure BDA0004195978270000065
常规波束形成位于x0网格点的表达式为:
Figure BDA0004195978270000066
步骤3.1、对采集到的麦克风时域信号进行傅里叶变换得到麦克风频域信号,假设采集到的每帧时域信号维度为2400×64,麦克风阵列采样频率为fs=240KHz,则傅里叶变换以后频率分辨率为100Hz,若扫描频率范围为5KHz到20KHz,选取2400个采样点数中位于扫描频率范围内的点数共151个,由于这151个采样点中大部分频点频谱峰值为零,则在此加入频点筛选,只选取值最大的21个点参与后续运算,这样不计算没有值的频点,减少不必要的计算时间,提高运算效率。
步骤3.2、根据声源信号筛选出指定频点的转向矢量,步骤3)中的转向矢量是具有空间排布的,将转向矢量整体视为特征图;所述转向矢量可视为41×41×64×21的特征图,其中41×41是扫描的声平面的大小,64是麦克风数,21是每个麦克风通道筛选出的最大值采样点数,该转向矢量作为特征图的输入参与后续的卷积运算。
如图2所示,将特征图中的每个条形向量gH与互谱矩阵ppH依次进行矩阵运算且运算后通道数保持不变;对于特征图上的每一个pixel,其矩阵运算的步骤是一样的,这使得该过程具备卷积化的潜力,由于不同网格点对应的互谱矩阵是一样的,只是转向矢量不同,互谱矩阵可视为1344×64×1×1的特征向量,即可将互谱矩阵视为1344个64通道的1×1卷积核,转向矢量特征图与互谱矩阵卷积运算后,再与每个卷积输出通道的每个通道进行加权,最终卷积层得到1×1344×41×41的特征。
将和互谱矩阵做完运算的结果与原始的转向矢量g相乘,得到最终该条形特征向量的功率,整个计算过程可表述为gH×PPH×g;经过不断卷积运算,实现麦克风多通道信号并行处理,极大程度上缩短计算时间,提高计算效率。
步骤3.3、转向矢量与互谱矩阵卷积运算过程中采用分组卷积的方式,分组卷积单元将输入特征矩阵矩阵被分为21个组,每个组的输入维度是
Figure BDA0004195978270000071
同时,卷积核也被分成21个组,每个组的维度是/>
Figure BDA0004195978270000072
然后每个组分别卷积,输出
Figure BDA0004195978270000073
维度的结果,最后将每个组得到的结果级联构成最终的结果,分组卷积使用更小的参数量实现与标准卷积相同的结果,提高网络训练速度,同时分组卷积的实现使得模型在多GPU上的多分枝模型并行学习的方式使得模型训练更加高效,模型更优。
表1 GPU与CPU运行时间结果对比
所在模型 CPU GPU
运行时间(s/1000次) 487.1 4.414
由表1可以看出,本发明将互谱矩阵和转向矢量的大维度矩阵设计成卷积网络,利用GPU并行加速运算,结果能够比传统的延迟求和算法的运算时间提高将近100倍,能达到在工业应用中的实时成像需求。
上述实施例中,所包含各个步骤各个单元只是按照功能逻辑进行划分且不局限于上述划分,只要能够实现相应功能即可;另外,各个单元命名也只是为便于区分,并不用于限制本发明的保护范围。
以上只是对较佳实施例进行具体说明,但本发明创造并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做出种种的等同形变或替换,这些变化均包含在本申请权利要求所限定的范围内。

Claims (7)

1.基于CUDA技术的延迟求和声成像并行加速网络,其特征在于包括频点筛选单元、卷积单元以及分组卷积单元;
所述频点筛选单元用于选择位于扫描频率范围内的最大值点,使计算过程不必引入没有值的点,减少不必要的计算时间;
所述卷积单元用于将转向矢量特征图作为输入,将互谱矩阵与转向矢量的大维度矩阵进行卷积神经网络的卷积运算以产生卷积数据矩阵,以提高运算效率;
所述分组卷积单元用于进行卷积处理时,将整个输入特征沿着通道的方向划分为成N组分别进行卷积运算,以减少运算的参数,提高运算效率。
2.如权利要求1所述基于CUDA技术的延迟求和声成像并行加速网络,其特征在于所述频点筛选单元通过采样点数以及采样分辨率获得扫描频率范围内的采样值作为麦克风通道的输入信号,在该输入信号中选取数值最大的几个采样点参与后续矩阵运算,以提高计算效率。
3.基于CUDA技术的延迟求和声成像并行加速方法,其特征在于包括以下步骤:
1)假定转向矢量是具有空间排布的,将转向矢量整体视为特征图;
2)将步骤1)特征图中的每个条形向量作为卷积单元的输入与互谱矩阵依次进行矩阵运算且运算后通道数保持不变;
3)将步骤2)矩阵运算的结果与原始的转向矢量经过分组卷积单元进行矩阵的运算,得到最终该条形特征向量的功率。
4.如权利要求3所述基于CUDA技术的延迟求和声成像并行加速方法,其特征在于在步骤1)中,所述将转向矢量整体视为特征图,是将转向矢量视为41×41×64×21的特征图,其中41×41是扫描的声平面的网格点数,设扫描平面大小为[-2,2米,扫描分辨率为0.1米;64是麦克风阵列的阵元数,21是从扫描频率范围内每个麦克风通道筛选出的频谱峰值较大的频点数,由频点筛选单元计算得出扫频范围内最大的21个频率点,该转向矢量作为特征图的输入参与后续的卷积运算。
5.如权利要求3所述基于CUDA技术的延迟求和声成像并行加速方法,其特征在于在步骤2)中,所述卷积单元将步骤1)中所得特征图与互谱矩阵进行卷积运算,对于特征图上的每一个pixel,其矩阵运算的步骤是一样的,这使得该过程具备卷积化的潜力,由于不同网格点对应的互谱矩阵是一样的,只是转向矢量不同,互谱矩阵可视为1344×64×1×1的特征向量,即将互谱矩阵视为1344个64通道的1×1卷积核,转向矢量特征图与互谱矩阵卷积运算后,再与每个卷积输出通道的每个通道进行加权,最终卷积层得到1×1344×41×41的特征。
6.如权利要求3所述基于CUDA技术的延迟求和声成像并行加速方法,其特征在于在步骤3)中,将步骤2)中得到的特征图与转向矢量依次卷积运算,得到最终该网格点的功率,经过分组卷积单元卷积运算,实现麦克风多通道信号并行处理,最终得到整个扫描平面上所有网格点的声功率;通过卷积运算,实现麦克风多通道信号和各个频点并行处理,缩短计算时间,提高计算效率。
7.如权利要求3所述基于CUDA技术的延迟求和声成像并行加速方法,其特征在于在步骤3)中,所述分组卷积单元将输入特征矩阵分为21个组,每个组的输入维度是
Figure FDA0004195978260000021
同时,卷积核被分成21个组,每个组的维度是/>
Figure FDA0004195978260000022
然后每个组分别卷积,输出/>
Figure FDA0004195978260000023
维度的结果,最后将每个组得到的结果级联构成最终的结果;分组卷积使用更小的参数量实现与标准卷积相同的结果,提高模型运算速度,同时分组卷积使模型在多GPU上的多分枝模型并行学习的方式促进模型训练更加高效,模型更优。
CN202310446933.2A 2023-04-24 2023-04-24 基于cuda技术的延迟求和声成像并行加速方法 Pending CN116309921A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310446933.2A CN116309921A (zh) 2023-04-24 2023-04-24 基于cuda技术的延迟求和声成像并行加速方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310446933.2A CN116309921A (zh) 2023-04-24 2023-04-24 基于cuda技术的延迟求和声成像并行加速方法

Publications (1)

Publication Number Publication Date
CN116309921A true CN116309921A (zh) 2023-06-23

Family

ID=86816927

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310446933.2A Pending CN116309921A (zh) 2023-04-24 2023-04-24 基于cuda技术的延迟求和声成像并行加速方法

Country Status (1)

Country Link
CN (1) CN116309921A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117031397A (zh) * 2023-10-07 2023-11-10 成都流体动力创新中心 一种运动物体噪声源定位和评估的快速计算方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117031397A (zh) * 2023-10-07 2023-11-10 成都流体动力创新中心 一种运动物体噪声源定位和评估的快速计算方法
CN117031397B (zh) * 2023-10-07 2023-12-12 成都流体动力创新中心 一种运动物体噪声源定位和评估的快速计算方法

Similar Documents

Publication Publication Date Title
Chiariotti et al. Acoustic beamforming for noise source localization–Reviews, methodology and applications
AU2015292238B2 (en) Planar sensor array
US8988970B2 (en) Method and system for dereverberation of signals propagating in reverberative environments
KR20090057692A (ko) 음원 거리에 따라 음원 신호를 여과하는 방법 및 장치
JP6789690B2 (ja) 信号処理装置、信号処理方法、及びプログラム
EP3025130B1 (en) Wide-band acoustic holography
CN107153172B (zh) 一种基于互谱优化的互谱广义逆波束形成方法
Ginn et al. Noise source identification techniques: simple to advanced applications
Yang et al. Functional delay and sum beamforming for three-dimensional acoustic source identification with solid spherical arrays
Malgoezar et al. On the use of global optimization methods for acoustic source mapping
Lee et al. Deep learning-enabled high-resolution and fast sound source localization in spherical microphone array system
CN116309921A (zh) 基于cuda技术的延迟求和声成像并行加速方法
Borra et al. Soundfield reconstruction in reverberant environments using higher-order microphones and impulse response measurements
CN110515034B (zh) 一种声信号方位角测量***及方法
TWI429885B (zh) 迴響環境之聲源能量分佈可視化的方法
Yu et al. Adaptive imaging of sound source based on total variation prior and a subspace iteration integrated variational bayesian method
Hosseini et al. Time difference of arrival estimation of sound source using cross correlation and modified maximum likelihood weighting function
Padois et al. On the use of geometric and harmonic means with the generalized cross-correlation in the time domain to improve noise source maps
Merino-Martınez et al. Three–dimensional acoustic imaging using asynchronous microphone array measurements
CN110751946A (zh) 机器人及其语音识别装置和方法
Zhao et al. Large region acoustic source mapping using movable arrays
Nascimento et al. Acoustic imaging using the Kronecker array transform
Carneiro et al. Three-dimensional sound source diagnostic using a spherical microphone array from multiple capture positions
Hoffmann et al. Theoretical study of acoustic circular arrays with tangential pressure gradient sensors
CN211529608U (zh) 机器人及其语音识别装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination