CN110166927B - 一种基于定位修正的虚拟声像重建方法 - Google Patents

一种基于定位修正的虚拟声像重建方法 Download PDF

Info

Publication number
CN110166927B
CN110166927B CN201910392966.7A CN201910392966A CN110166927B CN 110166927 B CN110166927 B CN 110166927B CN 201910392966 A CN201910392966 A CN 201910392966A CN 110166927 B CN110166927 B CN 110166927B
Authority
CN
China
Prior art keywords
loudspeaker
gain
azimuth
sound image
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910392966.7A
Other languages
English (en)
Other versions
CN110166927A (zh
Inventor
涂卫平
翟双星
郑佳玺
余智勇
万言
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201910392966.7A priority Critical patent/CN110166927B/zh
Publication of CN110166927A publication Critical patent/CN110166927A/zh
Application granted granted Critical
Publication of CN110166927B publication Critical patent/CN110166927B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)

Abstract

本发明提供了一种基于定位修正的虚拟声像重建方法,其中的方法包括:首先确定扬声器的方位和目标重建声像方位,然后基于矢量的幅度平移方法分配扬声器增益,进一步合成双耳信号并提取耳间线索,接着基于虚拟声像估计模型估计虚拟声像的方位,估计方位与目标方位对比,采用二分法调整扬声器的增益值,进而使估计方位与目标方位的偏差小于最小可听角,输出调整后的扬声器增益,以此来修正基于矢量的幅度平移方法。本发明实现了基于矢量的幅度平移重建的声像方位与目标方位一致的效果。

Description

一种基于定位修正的虚拟声像重建方法
技术领域
本发明涉及音频技术领域,特别是涉及一种基于定位修正的虚拟声像重建方法。
背景技术
在虚拟现实中,实现逼真的声像空间感知体验,依赖于虚拟声像的感知无失真重建,所以如何提高虚拟声像重建的准确度成为国内外多媒体领域的研究热点之一。虚拟声像重建方法中应用最广泛的是幅度平移(Amplitude Panning,AP)技术。AP技术包括正弦定律平移技术、正切定律平移技术、基于矢量的幅度平移(Vector Base Amplitude Panning,基于矢量的幅度平移)和多声源的幅度平移技术(Multiple Base Amplitude Panning,MDAP)等。基于AP技术的虚拟声像重建采用简单的几何模型,通过建立听音点到各扬声器的方向矢量,基于矢量合成的方法为各扬声器分配增益,从而合成目标方位的声像。
AP技术虽然计算简单,主要基于扬声器与听音点构成简单几何模型,但是其未考虑到人头、躯干等在声音到双耳传输过程中滤波作用,导致估计方位与听者感知方位产生偏差,进一步导致合成的虚拟声像偏离目标声像。基于此,基于矢量的幅度平移技术需要进行修正研究。
发明内容
本发明提供了一种基于定位修正的虚拟声像重建方法,用来修正基于矢量的幅度平移方法,使基于矢量的幅度平移重建的虚拟声像更加准确;该方法包括以下步骤:
步骤1:确定扬声器方位和目标方位,其中,所述扬声器的数量为2个或者3个,所述目标方位为理想的期望重建的虚拟声像方位;
步骤2:根据所述的扬声器方位和目标方位,采用基于矢量的幅度平移方法为每个扬声器分配初始增益;
步骤3:根据扬声器增益值,通过求和定位准则合成初始的虚拟声像对应的双耳信号,提取耳间线索;
步骤4:将步骤3中提取的耳间线索输入到现有的虚拟声像方位估计模型中,其中,所述的估计模型用来估计双耳信号表示的方位;
步骤5:判断虚拟声像方位估计模型的估计方位与目标方位是否一致,其中,所述的“一致”指的是估计方位与目标方位的差值在目标方位的最小可听角范围内,若上述估计方位与目标方位一致,则将当前扬声器增益作为基于矢量的幅度平移的修正增益;
步骤6:若上述估计方位与目标方位不一致,计算扬声器增益比,并对增益比区间进行划分,根据二分法确定中值增益比,并计算扬声器增益,重复步骤3~步骤6,其中所述的增益比为右扬声器增益与左扬声器增益的比值;
作为优选,步骤3中所述提取耳间线索,具体包括:
步骤3.1:根据每个扬声器的方位和目标方位选择对应的HRTF数据,其中,所述HRTF数据存储于HRTF数据库中,所述数据库中记录有每个空间位置对应的左右耳的HRTF数据;
步骤3.2:各扬声器增益作用于声源信号后得到各扬声器信号,各扬声器信号分别与左、右耳HRTF数据卷积后求和得到左、右耳信号;
步骤3.3:从左、右耳信号中提取耳间线索,所述耳间线索是用于声源位置定位的线索,包括双耳线索和单耳线索。
作为优选,步骤6中所述根据二分法确定中值增益比为采用二分法逐次逼近扬声器的修正增益,具体包括:
步骤6.1:根据扬声器增益计算增益比,以增益比为临界点将原始增益区间划分为左右两个区间;
步骤6.2:根据目标方位与预测方位的偏差从步骤6.1所述的两个区间中选择一个增益比变化区间;
步骤6.3:根据增益比区间的左极限值和右极限值计算中值增益比,并根据增益归一化方式求解左右扬声器增益。
附图说明
图1:为本发明实施例的扬声器与人头空间位置图;
图2:为左右扬声器合成双耳信号图;
图3:为神经网络的结构图;
图4:为本发明实施例的基于矢量的幅度平移修正流程图;
图5:为本发明实施例的扬声器增益的调整方法图;
图6:为三个扬声器的空间位置图;
图7:为估计声像在扬声器1与扬声器2平面的映射图;
图8:为估计声像在扬声器2与扬声器3平面的映射图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供了一种基于定位修正的虚拟声像重建方法,用以改善现有的基于矢量的幅度平移技术由于忽略了听者的声场扰动作用而导致重建的虚拟声像方位偏离了目标方位的问题。
本申请实施例中的技术方案,总体思路如下:
首先确定扬声器的方位和目标方位,然后采用基于矢量的幅度平移方法为各个扬声器分配相应的增益值,之后基于HRTF数据库合成虚拟声像并提取耳间线索,接着通过虚拟声像方位估计模型估计当前合成的虚拟声像的方位,接下来根据目标方位与估计方位的差异对扬声器增益进行二分法调整,之后不断迭代调整扬声器增益,直到目标方位与估计方位的差异小于最小可听角时,记录当前的扬声器增益,即为最终修正的扬声器增益。
通过本发明提供的上述方法可知,本发明实时预测虚拟声像的方位,并采用二分法不断地调整扬声器增益从而实时改变虚拟声像方位,直到预测方位与目标方位的差值小于最小可听角时才终止。因此当虚拟声像方位估计模型的预测误差较小时,本发明提供的方法可有效地改善基于矢量的幅度平移定位偏差问题。而目前大多数的虚拟声像方位估计模型都有较优的预测性能。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
以下结合附图和实施例详细说明本发明技术方案。
本发明提供一种基于定位修正的虚拟声像合成方法及装置,用以改善基于矢量的幅度平移方法合成的虚拟声像方位偏差较大的问题。实施例的实现流程包含以下步骤:
步骤1:确定扬声器方位和目标方位,其中,所述扬声器的数量为2个或者3个,所述目标方位为期望重建的虚拟声像方位;
步骤1中所述确定扬声器方位和目标方位具体为:
基于矢量的幅度平移方法适用于两个或三个扬声器情况,以2个扬声器的情况为例,建立坐标系以人头为原点,2个扬声器位于以听音点(人头)为圆心的圆上,设人头正前方为0°,左右耳对应的方位分别为-90°和90°;2个扬声器的角度分别为-θ和θ,目标声像的方位为
Figure BDA0002057182640000041
步骤2:根据所述的扬声器方位和目标方位(期望重建的虚拟声像方位),采用基于矢量的幅度平移计算每个扬声器的初始增益值;
步骤2中所述根据所述的扬声器方位和目标方位采用基于矢量的幅度平移计算每个扬声器的初始增益值g1、g2为:
具体来说,基于矢量的幅度平移方法的工作原理是给定2个或者3个扬声器距离听音点半径相同,假定虚拟声像与扬声器位于距离中心点半径相同的球面上,扬声器所在位置与中心点构成单位矢量,矢量合成出虚拟声像的单位矢量。
在具体实施过程中,所述扬声器为2个,按扬声器的相对方位,可将扬声器称为左扬声器和右扬声器,则扬声器的初始增益可根据由基于矢量的幅度平移方法推导的公式如下:
Figure BDA0002057182640000042
Figure BDA0002057182640000043
步骤3:根据扬声器增益值,通过求和定位准则合成初始的虚拟声像对应的双耳信号,提取耳间线索;
步骤3中所述根据扬声器增益值,通过求和定位准则合成初始的虚拟声像对应的双耳信号,提取耳间线索为:
根据每个扬声器的方位,确定对应的头相关传输函数(Head-Related TransferFunction,HRTF)其中,所述HRTF存储于HRTF数据库中,所述数据库中记录有每个空间位置对应的左右耳的HRTF,根据所述的扬声器方位得到对应的HRTF,并结合步骤2得到的扬声器的初始增益值,计算双扬声器在人耳处合成的双耳信号,并提取耳间线索;
具体来说,是一种音效定位算法,利用脉冲信号,将自由场声波从声源到听音者双耳的传输过程,包括听音者的头部、耳廓和躯干等对声波的综合滤波记录下来,保存为HRTF数据库。不同的方位对应不同的HRTF,且HRTF与个体特征相关,HRTF数据库有CIPIC数据库、ARI数据库、PKU数据库、SADIE数据库等,每个库的数据量和采样精度不一样,可根据需要选择HRTF数据库。
作为一种可选实施方式,扬声器包括左扬声器和右扬声器,选用的数据库为CIPIC数据库,步骤3中,在左右扬声器配置下,基于HRTF数据库合成虚拟声像并提取耳间线索,具体包括:
步骤3.1:根据每个扬声器的方位和目标方位从CIPIC中选择对应的HRTF,其中,CIPIC库中记录有每个空间位置对应的左右耳的HRTF数据,共包含M=1250个空间位置;
步骤3.2:根据左右扬声器方位对应的左右耳HRTF,并结合左右扬声器增益可计算得到左右扬声器合成的虚拟声像对应的双耳信号;
具体来说,采用CIPIC HRTF数据库,设s为声源信号、左扬声器的增益为g1,右扬声器的增益为g2,因此,左扬声器信号为sl=s·g1,右扬声器信号为sr=s·g2;扬声器信号卷积左耳的HRTF可得到左耳信号,扬声器信号卷积右耳的HRTF可得到右耳信号;如图2所示,左耳信号为左右扬声器分别传输到左耳的信号al和bl的和;右耳信号为左右扬声器分别传输到右耳的信号ar和br的和。则左右耳信号可根据如下公式求得:
xl=s·g1·hrtfll+s·g2·hrtfrl
xr=s·g1·hrtflr+s·g2·hrtfrr
其中定义xl为左耳信号,定义xr为右耳信号;定义hrtfll为左扬声器对应的左耳hrtf,定义hrtfrl为右扬声器对应的左耳hrtf,定义hrtflr为左扬声器对应的右耳hrtf,定义hrtfrr为右扬声器对应的右耳hrtf。
步骤3.3:从双耳信号中提取耳间线索,所述耳间线索是人耳用于判断声源位置的线索,包括双耳线索和单耳线索等;
具体来说,耳间线索包括双耳时间差(Interaural Time Difference,ITD)、双耳强度差(Interaural Level Difference,ILD)、双耳互相关函数(Cross CorrelationFunction,CCF)、单耳线索等。单耳线索是指单耳谱线索,这里用左右耳信号通过Gammatone滤波器后的能量值(Gammatone Filter Energy,GFE)来表示单耳谱线索。耳间线索的选取可根据需要选择。
在具体实施过程中,将步骤3.1中取得的双耳信号分帧,取其中一帧的信号进行运算。
ILD的计算公式如下:
Figure BDA0002057182640000061
其中,Xl定义为左耳信号,Xr定义为右耳信号。
CCF的计算公式如下:
Figure BDA0002057182640000062
其中,xl(n)定义为左耳信号,xr(n)定义为右耳信号,n定义为第n时刻,τ定义为右耳信号相对左耳信号的时延,N定义为信号的总长度。
ITD值为CCF峰值处的时延差;GFE的取值为左右耳信号能量分别通过具有20个通道的gammatone滤波器组,最终可得到40个GFE值。
步骤4:采用虚拟声像估计模型,对双耳信号所表示的声像方位进行估计,得到估计方位。
具体来说,虚拟声像估计模型采用的是基于BP的神经网络模型的声像估计方法,所述的神经网络模型的输入是耳间线索、输出是对应的声像方位;网络结构如图3所示,包含一个输入层、两个隐藏层、一个输出层;输入层包含75个节点,隐藏层均包含151个节点,输出层为2个节点。在训练神经网络时,设置隐藏层的激活函数为sigmoid函数、学***均误差小于最小可听角的平均值,认为神经网络模型定位是精准的。
在具体实施过程中,将步骤3中提取的耳间线索输入到神经网络模型中,进一步得到估计方位。
步骤5:判断虚拟声像方位估计模型的估计方位与目标方位是否一致,上述的“一致”指的是估计方位与目标方位的差值小于目标方位的最小可听角,若上述估计方位与目标方位一致,则将当前扬声器增益作为基于矢量的幅度平移的修正增益。
具体来说,定义目标方位
Figure BDA0002057182640000071
减去估计方位
Figure BDA0002057182640000072
的差值为
Figure BDA0002057182640000073
若估计方位与目标方位差值
Figure BDA0002057182640000074
小于最小可听角(Minimum Audible Angle,MAA),则
Figure BDA0002057182640000075
满足如下公式时,输出当前扬声器增益。
Figure BDA0002057182640000076
步骤6:若上述估计方位与目标方位不一致,计算扬声器增益比,并对增益比区间进行划分,根据二分法确定中值增益比,并计算扬声器增益,重复步骤3~6,其中所述的增益比为右扬声器增益与左扬声器增益的比值。
具体来说,通过二分法不断地调整扬声器的增益值,直到神经网络***输出的估计方位与目标方位一致时,记录当前的扬声器增益,将其作为基于矢量的幅度平移的修正增益。
在具体实施过程中,由于估计方位与目标方位不一致,即
Figure BDA0002057182640000077
大于MAA,调整扬声器增益的大致流程如图5所示。具体包括以下步骤:
步骤6.1:首先计算当前扬声器的增益比值g,设置增益比的调整区间为[a,b],将增益比区间划分为两个区间,即[a,g]与[g,b];
步骤6.2:若
Figure BDA0002057182640000078
则选择增益比区间为[a,g],若
Figure BDA0002057182640000079
则选择增益比区间为[g,b];
步骤6.3:基于上述的增益比区间计算中值增益比,即计算增益比区间的左极限值和右极限值的平均值,将其作为中值增益比,之后根据增益归一化方式求解左右扬声器增益,重复重复步骤3~步骤6。
在具体实施过程中,当扬声器为三个时,结合附图6至附图8所示,首先定义目标方位
Figure BDA00020571826400000710
在听音点与扬声器1和扬声器2构成的平面上映射的方位为
Figure BDA00020571826400000711
Figure BDA00020571826400000712
在听音点与扬声器2和扬声器3构成的平面上映射的方位为
Figure BDA00020571826400000713
估计方位
Figure BDA00020571826400000714
在听音点与扬声器1和扬声器2构成的平面上映射的方位为
Figure BDA00020571826400000715
Figure BDA00020571826400000716
在听音点与扬声器2和扬声器3构成的平面上映射的方位为
Figure BDA00020571826400000717
扬声器调整步骤如下:
定义
Figure BDA0002057182640000081
Figure BDA0002057182640000082
具体调节方式可按照扬声器为两个时所采用的二分法来调节,调节方法与步骤6.1~步骤6.3相同;使扬声器1与扬声器2合成的虚拟声像的方位
Figure BDA0002057182640000083
Figure BDA0002057182640000084
一致。
定义
Figure BDA0002057182640000085
Figure BDA0002057182640000086
具体调节方式可按照扬声器为两个时所采用的二分法来调节,调节方法与步骤6.1~步骤6.3相同;使扬声器2与扬声器3合成的虚拟声像的方位
Figure BDA0002057182640000087
Figure BDA0002057182640000088
一致。
应当理解的是,本说明书未详细阐述的部分均属于现有技术。
应当理解的是,上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。

Claims (3)

1.一种基于定位修正的虚拟声像重建方法,其特征在于,包括以下步骤:
步骤1:确定扬声器方位和目标方位,其中,所述扬声器的数量为2个或者3个,所述目标方位为期望重建的虚拟声像方位;
步骤2:根据所述的扬声器方位和目标方位,采用基于矢量的幅度平移方法为每个扬声器分配初始增益;
步骤3:根据扬声器增益值,通过求和定位准则合成初始的虚拟声像对应的双耳信号,提取耳间线索;
步骤4:将步骤3中提取的耳间线索输入到虚拟声像方位估计模型中,其中,所述的估计模型用来估计双耳信号表示的方位;
步骤5:判断虚拟声像方位估计模型的估计方位与目标方位是否一致,其中,所述的一致指的是估计方位与目标方位的差值在目标方位的最小可听角范围内,若上述估计方位与目标方位一致,则将当前扬声器增益作为基于矢量的幅度平移的修正增益;
步骤6:若上述估计方位与目标方位不一致,计算扬声器增益比,并对增益比区间进行划分,根据二分法确定中值增益比,并计算扬声器增益,重复步骤3~步骤6,其中所述的增益比为右扬声器增益与左扬声器增益的比值。
2.根据权利要求1所述方法,其特征在于,步骤3中所述提取耳间线索,具体包括:
步骤3.1:根据每个扬声器的方位和目标方位选择对应的HRTF数据,其中,所述HRTF数据存储于HRTF数据库中,所述数据库中记录有每个空间位置对应的左右耳的HRTF数据;
步骤3.2:各扬声器增益作用于声源信号后得到各扬声器信号,各扬声器信号分别与左、右耳HRTF数据卷积后求和得到左、右耳信号;
步骤3.3:从左、右耳信号中提取耳间线索,所述耳间线索是用于声源位置定位的线索,包括双耳线索和单耳线索。
3.根据权利要求1所述的方法,其特征在于,步骤6中所述根据二分法确定中值增益比为采用二分法逐次逼近扬声器的修正增益,具体包括:
步骤6.1:根据扬声器增益计算增益比,以增益比为临界点将原始增益区间划分为左右两个区间;
步骤6.2:根据目标方位与估计方位的偏差从步骤6.1所述的两个区间中选择一个增益比变化区间;
步骤6.3:根据增益比区间的左极限值和右极限值计算中值增益比,并根据增益归一化方式求解左右扬声器增益。
CN201910392966.7A 2019-05-13 2019-05-13 一种基于定位修正的虚拟声像重建方法 Active CN110166927B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910392966.7A CN110166927B (zh) 2019-05-13 2019-05-13 一种基于定位修正的虚拟声像重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910392966.7A CN110166927B (zh) 2019-05-13 2019-05-13 一种基于定位修正的虚拟声像重建方法

Publications (2)

Publication Number Publication Date
CN110166927A CN110166927A (zh) 2019-08-23
CN110166927B true CN110166927B (zh) 2020-05-12

Family

ID=67634306

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910392966.7A Active CN110166927B (zh) 2019-05-13 2019-05-13 一种基于定位修正的虚拟声像重建方法

Country Status (1)

Country Link
CN (1) CN110166927B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106385660A (zh) * 2015-08-07 2017-02-08 杜比实验室特许公司 处理基于对象的音频信号
US9648438B1 (en) * 2015-12-16 2017-05-09 Oculus Vr, Llc Head-related transfer function recording using positional tracking
CN109068262A (zh) * 2018-08-03 2018-12-21 武汉大学 一种基于扬声器的声像个性化重现方法及装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110268285A1 (en) * 2007-08-20 2011-11-03 Pioneer Corporation Sound image localization estimating device, sound image localization control system, sound image localization estimation method, and sound image localization control method
CN107205207B (zh) * 2017-05-17 2019-01-29 华南理工大学 一种基于中垂面特性的虚拟声像近似获取方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106385660A (zh) * 2015-08-07 2017-02-08 杜比实验室特许公司 处理基于对象的音频信号
US9648438B1 (en) * 2015-12-16 2017-05-09 Oculus Vr, Llc Head-related transfer function recording using positional tracking
CN109068262A (zh) * 2018-08-03 2018-12-21 武汉大学 一种基于扬声器的声像个性化重现方法及装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
A Sound Image Reproduction Model Based on Personalized Weight Vectors;Zheng, Jiaxi; Tu, Weiping; Zhang, Xiong;《19th Pacific-Rim Conference on Multimedia (PCM)》;20180922;全文 *
Gain Factors Calibration in 3D Sound Reproduction Using VBAP;Hu Ruimin; Zhang Maosheng; Yang, Yuhong;《9th International Conference on Intelligent Information Hiding and Multimedia Signal Processing (IIH-MSP)》;20131018;全文 *
三维音频实时生成技术及实现;涂卫平,姚雪春,张茂胜,胡瑞敏,杨乘;《计算机科学与探索》;20150205;第9卷(第7期);全文 *

Also Published As

Publication number Publication date
CN110166927A (zh) 2019-08-23

Similar Documents

Publication Publication Date Title
US9838825B2 (en) Audio signal processing device and method for reproducing a binaural signal
CN110021306B (zh) 用于利用头部跟踪生成自定义空间音频的方法
US20240098445A1 (en) Concept for generating an enhanced sound field description or a modified sound field description using a multi-point sound field description
US9961474B2 (en) Audio signal processing apparatus
US7231054B1 (en) Method and apparatus for three-dimensional audio display
US20190230436A1 (en) Method, systems and apparatus for determining audio representation(s) of one or more audio sources
US8437485B2 (en) Method and device for improved sound field rendering accuracy within a preferred listening area
US20180310114A1 (en) Distributed Audio Capture and Mixing
US20150156599A1 (en) Efficient personalization of head-related transfer functions for improved virtual spatial audio
KR20180135973A (ko) 바이노럴 렌더링을 위한 오디오 신호 처리 방법 및 장치
CN106664501A (zh) 基于所通知的空间滤波的一致声学场景再现的***、装置和方法
US20090067636A1 (en) Optimization of Binaural Sound Spatialization Based on Multichannel Encoding
CN107820158B (zh) 一种基于头相关脉冲响应的三维音频生成装置
US10652686B2 (en) Method of improving localization of surround sound
Zhong et al. Head-related transfer functions and virtual auditory display
US10966046B2 (en) Spatial repositioning of multiple audio streams
TW202022853A (zh) 以保真立體音響格式所編碼聲訊訊號為l個揚聲器在已知位置之解碼方法和裝置以及電腦可讀式儲存媒體
JP2009077379A (ja) 立体音響再生装置、立体音響再生方法及びコンピュータプログラム
Garí et al. Flexible binaural resynthesis of room impulse responses for augmented reality research
Lopez et al. Elevation in wave-field synthesis using HRTF cues
Breebaart et al. Phantom materialization: A novel method to enhance stereo audio reproduction on headphones
CN110166927B (zh) 一种基于定位修正的虚拟声像重建方法
US11388540B2 (en) Method for acoustically rendering the size of a sound source
Koyama Boundary integral approach to sound field transform and reproduction
US10999694B2 (en) Transfer function dataset generation system and method

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant