CN110401898A - 输出音频数据的方法、装置、设备和存储介质 - Google Patents

输出音频数据的方法、装置、设备和存储介质 Download PDF

Info

Publication number
CN110401898A
CN110401898A CN201910652191.2A CN201910652191A CN110401898A CN 110401898 A CN110401898 A CN 110401898A CN 201910652191 A CN201910652191 A CN 201910652191A CN 110401898 A CN110401898 A CN 110401898A
Authority
CN
China
Prior art keywords
audio data
target
target scene
model
transformation model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910652191.2A
Other languages
English (en)
Other versions
CN110401898B (zh
Inventor
刘佳泽
王宇飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Kugou Computer Technology Co Ltd
Original Assignee
Guangzhou Kugou Computer Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Kugou Computer Technology Co Ltd filed Critical Guangzhou Kugou Computer Technology Co Ltd
Priority to CN201910652191.2A priority Critical patent/CN110401898B/zh
Publication of CN110401898A publication Critical patent/CN110401898A/zh
Application granted granted Critical
Publication of CN110401898B publication Critical patent/CN110401898B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)

Abstract

本申请公开了一种输出音频数据的方法、装置、设备和存储介质,属于计算机技术领域。所述方法包括:获取目标场景的模型、第一音频数据、第一位置和第二位置;基于目标场景的模型、第一音频数据、第一位置和第二位置,确定在目标场景中,第一音频数据由第一位置向第二位置传播的过程中,传播至距第二位置预设距离处得到的第二音频数据;基于预先存储的虚拟声源方向与声学变换模型的对应关系、以及第一位置相对于第二位置的方向,确定对应的目标声学变换模型;将第二音频数据输入目标声学变换模型,得到第三音频数据,输出第三音频数据。采用本申请,无需存储大量不同虚拟声源距离的声学变换模型,从而,可以减少设备存储资源的占用。

Description

输出音频数据的方法、装置、设备和存储介质
技术领域
本申请涉及计算机技术领域,特别涉及一种输出音频数据的方法、装置、设备和存储介质。
背景技术
随着VR(Virtual Reality,虚拟现实)和AR(Augmented Reality,增强现实)等技术的逐渐推广,用户对听觉体验的要求越来越高。一些技术中,对音频数据进行处理,使处理后的音频数据经过音频输出设备输出后,用户能够从输出的声音中感受到声源方向和声源距离,例如,HRTF(Head Related Transfer Function,头相关变换函数)技术。
在HRTF技术中,建立有模型数据库,模型数据库中包含了大量的声学变换模型,每个声学变换模型对应有一个虚拟声源方向和一个虚拟声源距离,其中,虚拟声源方向和虚拟声源距离是声学变换模型输出的音频数据能够让用户听觉感受到的声源方向和声源距离。当设备需要生成一个具有方向属性和距离属性的第一音频数据时,可以先获取一个无方向属性且无距离属性的第二音频数据,其中,具有方向属性和距离属性的音频数据是指通过音频输出设备输出后能够让用户感受到声源方向和距离的音频数据,无方向属性且无距离属性的音频数据是指通过音频输出设备输出后不能让用户感受到声源方向和距离的音频数据。同时还需要获取需要为第二音频数据赋予的声源方向和声源距离。此时,可以基于该声源方向和声源距离,在模型数据库中,查找对应的声学变换模型。然后,将第二音频数据输入到该声学变换模型中,即可以得到具有方向属性和距离属性的第一音频数据。
在实现本申请的过程中,发明人发现现有技术至少存在以下问题:
模型数据库中,需要存储大量的声学变换模型,从而,会占用设备大量的存储资源。
发明内容
本申请实施例提供了一种输出音频数据的方法、装置、设备和存储介质,能够解决占用设备大量存储资源的问题。所述技术方案如下:
一方面,提供了一种输出音频数据的方法,所述方法包括:
获取目标场景的模型、第一音频数据、第一位置和第二位置,其中,所述第一位置是所述第一音频数据在所述目标场景中的发声位置,所述第二位置是目标听者在所述目标场景中的位置;
基于所述目标场景的模型、所述第一音频数据、所述第一位置和所述第二位置,确定在所述目标场景中,所述第一音频数据由所述第一位置向所述第二位置传播的过程中,传播至距所述第二位置预设距离的第三位置处得到的第二音频数据;
基于预先存储的虚拟声源方向与声学变换模型的对应关系、以及所述第三位置相对于所述第二位置的方向,确定对应的目标声学变换模型,其中,所述对应关系中的每个声学变换模型对应的虚拟声源距离均为所述预设距离;
基于所述第二音频数据和对应的所述目标声学变换模型,确定第三音频数据,输出所述第三音频数据。
可选的,所述基于所述目标场景的模型、所述第一音频数据、所述第一位置和所述第二位置,确定在所述目标场景中,所述第一音频数据由所述第一位置向所述第二位置传播的过程中,传播至距所述第二位置预设距离的第三位置处得到的第二音频数据,包括:
如果所述第一位置与所述第二位置之间的声音传播距离大于预设距离,则基于所述目标场景的模型、所述第一音频数据、所述第一位置和所述第二位置,确定在所述目标场景中,所述第一音频数据由所述第一位置向所述第二位置传播的过程中,传播至距所述第二位置预设距离的第三位置处得到的第二音频数据。
可选的,所述方法还包括:
如果所述第一位置与所述第二位置之间的声音传播距离不大于预设距离,则基于预先存储的虚拟声源方向与声学变换模型的对应关系、以及所述第一位置相对于所述第二位置的方向,确定对应的目标声学变换模型;
将所述第一音频数据输入所述目标声学变换模型,得到第四音频数据,输出所述第四音频数据。
可选的,所述基于所述目标场景的模型、所述第一音频数据、所述第一位置和所述第二位置,确定在所述目标场景中,所述第一音频数据由所述第一位置向所述第二位置传播的过程中,传播至距所述第二位置预设距离的第三位置处得到的第二音频数据,包括:
基于声音传播路径追踪算法、所述目标场景中的水汽含量和物体的声学属性信息,并基于所述目标场景的模型、所述第一音频数据、所述第一位置和所述第二位置,确定在所述目标场景中,所述第一音频数据由所述第一位置向所述第二位置传播的过程中,传播至距所述第二位置预设距离的第三位置处得到的第二音频数据。
可选的,所述基于所述目标场景的模型、所述第一音频数据、所述第一位置和所述第二位置,确定在所述目标场景中,所述第一音频数据由所述第一位置向所述第二位置传播的过程中,传播至距所述第二位置预设距离的第三位置处得到的第二音频数据,包括:
基于所述目标场景的模型、所述第一音频数据、所述第一位置和所述第二位置,确定在所述目标场景中,所述第一音频数据通过至少一条传播路径由所述第一位置向所述第二位置传播的过程中,传播至距所述第二位置预设距离的第三位置处得到的第二音频数据,其中,所述至少一条传播路径包括直射传播路径和/或反射传播路径。
可选的,所述对应关系中的目标声学变换模型为卷积核,所述基于所述第二音频数据和对应的所述目标声学变换模型,确定第三音频数据,包括:
基于所述目标声学变换模型对所述第二音频数据进行卷积处理,得到第三音频数据。
另一方面,提供了一种输出音频数据的装置,所述装置包括:
获取模块,被配置为获取目标场景的模型、第一音频数据、第一位置和第二位置,其中,所述第一位置是所述第一音频数据在所述目标场景中的发声位置,所述第二位置是目标听者在所述目标场景中的位置;
确定模块,被配置为基于所述目标场景的模型、所述第一音频数据、所述第一位置和所述第二位置,确定在所述目标场景中,所述第一音频数据由所述第一位置向所述第二位置传播的过程中,传播至距所述第二位置预设距离的第三位置处得到的第二音频数据;基于预先存储的虚拟声源方向与声学变换模型的对应关系、以及所述第三位置相对于所述第二位置的方向,确定对应的目标声学变换模型,其中,所述对应关系中的每个声学变换模型对应的虚拟声源距离均为所述预设距离;基于所述第二音频数据和对应的所述目标声学变换模型,确定第三音频数据;
输出模块,被配置为输出所述第三音频数据。
可选的,所述确定模块,被配置为:
如果所述第一位置与所述第二位置之间的声音传播距离大于预设距离,则基于所述目标场景的模型、所述第一音频数据、所述第一位置和所述第二位置,确定在所述目标场景中,所述第一音频数据由所述第一位置向所述第二位置传播的过程中,传播至距所述第二位置预设距离的第三位置处得到的第二音频数据。
可选的,所述确定模块,还被配置为:
如果所述第一位置与所述第二位置之间的声音传播距离不大于预设距离,则基于预先存储的虚拟声源方向与声学变换模型的对应关系、以及所述第一位置相对于所述第二位置的方向,确定对应的目标声学变换模型;将所述第一音频数据输入所述目标声学变换模型,得到第四音频数据;
所述输出模块,还被配置为:输出所述第四音频数据。
可选的,所述确定模块,被配置为:
基于声音传播路径追踪算法、所述目标场景中的水汽含量和物体的声学属性信息,并基于所述目标场景的模型、所述第一音频数据、所述第一位置和所述第二位置,确定在所述目标场景中,所述第一音频数据由所述第一位置向所述第二位置传播的过程中,传播至距所述第二位置预设距离的第三位置处得到的第二音频数据。
可选的,所述确定模块,被配置为:
基于所述目标场景的模型、所述第一音频数据、所述第一位置和所述第二位置,确定在所述目标场景中,所述第一音频数据通过至少一条传播路径由所述第一位置向所述第二位置传播的过程中,传播至距所述第二位置预设距离的第三位置处得到的第二音频数据,其中,所述至少一条传播路径包括直射传播路径和/或反射传播路径。
可选的,所述对应关系中的目标声学变换模型为卷积核,所述确定模块,被配置为:
基于所述目标声学变换模型对所述第二音频数据进行卷积处理,得到第三音频数据。
再一方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述指令由所述处理器加载并执行以实现如上所述的输出音频数据的方法所执行的操作。
还一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令,所述指令由处理器加载并执行以实现如上所述的输出音频数据的方法所执行的操作。
本申请实施例提供的技术方案带来的有益效果是:
本申请实施例中,只建立虚拟声源距离为预设距离的不同虚拟声源方向的声学变换模型,进行存储,可见存储的声学变换模型的虚拟声源距离都是相同的,无需存储大量不同虚拟声源距离的声学变换模型,从而,可以减少设备存储资源的占用。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种输出音频数据的方法的场景示意图;
图2是本申请实施例提供的一种输出音频数据的方法流程图;
图3是本申请实施例提供的一种输出音频数据的方法流程图。
图4是本申请实施例提供的一种输出音频数据的装置结构示意图;
图5是本申请实施例提供的一种终端的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
本申请实施例提供的输出音频数据的方法可以由终端实现,也可以由终端与网络侧设备共同实现,还可以由用户侧的终端和独立的运算设备共同实现。本申请实施例以终端独立实现的情况为例进行说明,其他情况与之类似,本申请实施例不在赘述。终端可以是VR终端或AR终端,如VR眼镜、AR眼镜等,还可以是手机、平板电脑、笔记本电脑等移动终端,或者也可以是台式机等固定终端。该终端具有运算处理能力,还具有图像输出功能和音频输出功能。该终端中可以安装有应用程序,如游戏应用程序。
以VR终端的游戏应用程序为例,游戏应用程序中建立有一个虚拟场景,如一个房间、一个街区、一个工厂或一个百货商场等,用户可以在虚拟场景中进行游戏,进行游戏中设置的各种可以进行的行为,如射击游戏中,用户可以进行行走、下蹲、跳跃、开枪、闪避等行为,又如虚拟生活游戏中,用户可以进行吃饭、洗脸、健身、扫地等行为,等等。在虚拟场景中,可以设置有墙壁、桌子、凳子、台阶、地沟、车辆、动物等等,各种物体,在虚拟场景中,用户初始被分配有位置,该位置可以随着用户的移动而变化。在虚拟场景中,随着游戏的进行,可能会发出各种各样的声音。这个声音可能产生在虚拟场景中的任意一个位置。这时候游戏应用程序会为用户计算出他当前的位置听到的应该是如何的声音,计算出相应的音频数据后对音频数据进行播放。为了让用户在虚拟环境下感受到更真实的听觉效果,在这个计算中,游戏应用程序会考虑声音由声源处发出,在虚拟场景中传播,最终传播到用户在虚拟场景中的位置,在这整个过程经过后,声音会变成什么样。用户在使用VR终端玩游戏的时候,只需要佩戴VR眼镜,VR眼镜的屏幕会向用户输出图像,VR眼镜的耳机会向用户输出声音,用户可以通过VR眼镜感受虚拟场景,就好像自己置身于虚拟场景中,就好像看到的图像是自己身边发生的实际图像,听到的声音是附近产生的实际声音。
AR的应用程序与VR不同之处在于AR的场景是真实场景,场景中有些物体是真实物体,有些物体是虚拟物体,不过原理和VR类似。另外,本申请实施例还可以适用于各种移动终端或固定终端的应用程序,如台式机的游戏应用程序等等。本申请实施例以VR为例进行说明,其他情况与之类似,不再赘述。
图1是本申请实施例提供的输出音频数据的方法的场景的示意图,如图2所示,本申请实施例提供的输出音频数据的方法的执行过程可以包括如下步骤:
步骤201,获取目标场景的模型、第一音频数据、第一位置和第二位置。
其中,第一位置是第一音频数据在目标场景中的发声位置,第二位置是目标听者在目标场景中的位置。
目标场景是在终端当前运行的目标应用程序中用户所处的场景,可以是虚拟场景、实际场景或虚实结合场景,对于VR终端来说目标场景一般为目标应用程序中建立的虚拟场景,对于AR终端来说目标场景可以是实际场景,也可以是在实际场景中设置虚拟物件组成的虚实结合场景,对于移动终端、固定终端来说,基于应用程序的不同,目标场景可以是虚拟场景、实际场景或虚实结合场景。目标场景的模型中可以由各种物体组成,如墙、地面、天花板、柱子、柜子、桌子、汽车、树等等,在不同类型的场景下,模型中的物体的类型也可能不同,有可能是虚拟物体,也有可能是真实物体。
在实施中,用户想要使用VR终端中的某个目标应用程序时,可以启动VR终端并将VR终端佩戴好,然后操作VR终端启动目标应用程序,如某个射击游戏。用户在使用目标应用程序的过程中,自己会处于虚拟场景(即目标场景)中。虚拟场景中可能会产生各种各样的声音,声音产生的可能性可以多种多样,可以是用户的某个操作触发的声音,例如用户在游戏中开抢,也可以是虚拟场景中的某个预定事件触发的声音,例如虚拟场景中的定时炸弹***,还可以是计算机控制的某个虚拟人物进行的动作触发的声音,例如虚拟人物开抢。当产生触发发声的事件,目标应用程序会获取当前发声的音频数据(即第一音频数据),该音频数据一般会预先存储在目标应用程序中,该音频数据可以认为是声源刚刚发出的声音还没有进行传播时的音频数据。目标应用程序此时还会获取目标场景中的发声位置,也可称作声源位置,即上述第一位置,还会获取目标场景中目标听者的位置,即用户的位置。
例如,用户在使用VR终端玩射击游戏的时候,有一个计算机控制的虚拟人物开枪了,此时目标用于程序会基于虚拟人物所持的枪械类型,调取预先存储的该枪械类型的音频数据,并确定虚拟场景中枪的位置和用户的位置。
步骤202,基于目标场景的模型、第一音频数据、第一位置和第二位置,确定在目标场景中,第一音频数据由第一位置向第二位置传播的过程中,传播至距第二位置预设距离的第三位置处得到的第二音频数据。
在实施中,目标应用程序在获取目标场景的模型、第一音频数据、第一音频数据在目标场景中的发声位置(即第一位置)和用户在目标场景中的位置(即第二位置)后,可以模拟计算第一音频数据对应的声音在目标场景中的传播。因为,如果直接计算第一音频数据传播到第二位置后的音频数据的话,计算出的音频数据是没有方向性的,所以,本方案中,考虑建立HRTF技术的声学变换模型,针对多个不同的方向建立声学变换模型,而无需针对不同距离建立声学变换模型,也即本方案中建立的声学变换模型对应的虚拟声源距离均为相同的预设距离。那么,在模拟计算第一音频数据对应的声音在目标场景中的传播时,可以计算该声音传播至距离用户预设距离的位置处得到的音频数据(即上述第二音频数据)。此时得到的第二音频数据具有距离属性但无方向属性。然后再基于声学变换模型对第二音频数据进行进一步处理,得到用户位置的第三音频数据,第三音频数据是具有距离属性和方向属性的。关于声学变换模型的相关处理在后面内容中会详细介绍。
可选的,可以采用声音传播路径追踪算法,模拟计算第一音频数据对应的声音在目标场景中的传播,相应的,步骤202的处理可以如下:基于声音传播路径追踪算法、目标场景中的水汽含量和物体的声学属性信息,并基于目标场景的模型、第一音频数据、第一位置和第二位置,确定在目标场景中,第一音频数据由第一位置向第二位置传播的过程中,传播至距第二位置预设距离的第三位置处得到的第二音频数据。
其中,声音传播路径追踪算法是基于初始的音频数据模拟计算传播到某位置后的音频数据的算法。物体的声学属性信息可以包括对声波的反射率、对声波的吸收率、对声波频率的偏移率、共振等。不同物体的材料的声学属性信息不一样,在对声音进行反射时对声音产生的影响也不同。
在实例中,可以基于声音传播路径追踪算法,确定声音由第一位置向第二位置传播的过程中,传播至距离第二位置预设距离的第三位置处所经过的路径。然后获取目标场景中的水汽含量,目标场景中的水汽含量可以是在目标应用程序中预先设置好的,也可以是由目标应用程序基于目标场景的天气因素、环境因素等进行实时计算得到的。同时,获取声音传播路径上各物体的声学属性信息。目标场景中各物体的材料可以在场景建立时预先设置并记录在目标应用程序中。可以先确定声音传播路径上的各物体,获取各物体的材料,进一步获取预先存储的各材料对应的声学属性信息。在确定目标场景的水汽含量和声音传播路径上各物体的声学属性信息后,可以声音在传播过程中经过损耗、吸收、延迟后得到的第二音频数据。
可选的,基于目标场景的模型、第一音频数据、第一位置和第二位置,确定在目标场景中,第一音频数据通过至少一条传播路径由第一位置向第二位置传播的过程中,传播至距第二位置预设距离的第三位置处得到的第二音频数据。
其中,至少一条传播路径包括直射传播路径和/或反射传播路径。目标场景内,如果在发声位置与用户位置之间没有能阻隔声学传播的物体时至少一条传播路径包括直射传播路径和反射传播路径,比如,在虚拟的空旷房间中虚拟炸弹与用户同在这间屋子中,虚拟炸弹***的声音通过反射和直射传播向用户;而如果在发声位置与用户位置之间有能阻隔声学传播的物体时至少一条传播路径包括反射传播路径,比如,在虚拟的屋子中,用户躲在柜子后为避免承受***伤害,虚拟炸弹***,声音无法通过直射传播向用户处,只能通过反射传播向用户。另外,在进行声音传播路径追踪算法的处理时,可以预先设置声音的传播路径的条数,如1、2、3、4、5等,设置的条数越多,声音的真实性就越高,相反,条数越少,声音的真实性就越低。例如,传播路径的条数为1,发生位置和用户位置之间没有障碍物,则这一条传播路径即为直射传播路径,没有反射传播路径。
当有多条传播路径时,每条传播路径都会对应有一个第三位置,相应的也对应有一个第二音频数据。
步骤203,基于预先存储的虚拟声源方向与声学变换模型的对应关系、以及第三位置相对于所述第二位置的方向,确定对应的目标声学变换模型。
其中,对应关系中的每个声学变换模型对应的虚拟声源距离均为预设距离。每个声学变换模型都有虚拟声源距离和虚拟声源方向两个属性,这两个属性体现了声学变换模型能够赋予音频数据的距离属性和方向数据,声学变换模型处理后的音频数据经过音频输出设备输出后的声音,用户听到时能够感受到声音是从某个方向和距离上的声源传播过来的。本方案中目标应用程序需要存储的所有声学变换模型对应的虚拟声源距离是相同的,均为预设距离,对应的虚拟声源方向是不同的,各声学变换模型对应的虚拟声源方向可以是均匀分布的。本方案中的方向(如虚拟声源方向等)可以由水平角度和垂直角度来表示,也即该方向相对于某基准方向的水平角度和垂直角度。可见,本方案中,存储的各声学变换模型对应的虚拟声源相对于听者位置的距离相等且方向不同,这样以听者位置为圆心,预设距离为半径做一个球面,这些虚拟声源就分布在这个球面上,如图1中的球面。
在实施中,技术人员可以预先基于人头录音技术通过实验建立各声学变换模型。并基于每个声学变换模型对应的虚拟声源方向,建立虚拟声源方向与声学变换模型的对应关系,进行存储。
在经过上述步骤202确定第三位置和第二音频后,可以确定第三位置相对于第二位置的方向。进而在上述虚拟声源方向与声学变换模型的对应关系包括的各虚拟声源方向中,查找与该方向最接近的目标虚拟声源方向。进一步确定该目标虚拟声源方向对应的目标声学变换模型。
对于上述的声音有多条传播路径的情况,每条传播路径对应有一个第三位置,基于每个第三位置,都可以确定出一个目标声学变换模型,在后续步骤中使用。
步骤204,基于第二音频数据和对应的目标声学变换模型,确定第三音频数据,输出第三音频数据。
在实施中,本方案中建立的声学变换模型的数学形式可以多种多样,例如,声学变换模型可以是卷积核。在通过上述步骤203确定目标声学变换模型后,可以基于目标声学变换模型对第二音频数据进行处理,得到第三音频数据。例如,目标声学变换模型可以是卷积核,可以基于该卷积核对第二音频数据进行卷积运算,得到第三音频数据。第二音频数据是具有距离属性无方向属性的音频数据,处理后得到的第三音频数据是具有距离属性和方向属性的音频数据。在计算得到第三音频数据后,终端可以通过音频输出设备(如耳机)输出第三音频数据。
对于上述的声音有多条传播路径的情况,每条传播路径对应有一个第三位置和一个第二音频数据。步骤203可以基于每个第三位置确定出一个目标声学变换模型。此时,可以分别使用每个目标声学变换模型处理对应的第二音频数据,得到多个第三音频数据,对多个第三音频数据进行叠加后输出。
本申请实施例中,只建立虚拟声源距离为预设距离的不同虚拟声源方向的声学变换模型,进行存储,可见存储的声学变换模型的虚拟声源距离都是相同的,无需存储大量不同虚拟声源距离的声学变换模型,从而,可以减少设备存储资源的占用。
如图3所示,本申请实施例提供的输出音频数据的方法的执行过程可以包括如下步骤:
步骤301,获取目标场景的模型、第一音频数据、第一位置和第二位置,确定第一位置与第二位置之间的声音传播距离是否大于预设距离。
其中,第一位置是第一音频数据在目标场景中的发声位置,第二位置是目标听者在目标场景中的位置。
步骤302,如果第一位置与第二位置之间的声音传播距离大于预设距离,则确定在目标场景中,第一音频数据由第一位置向第二位置传播的过程中,传播至距第二位置预设距离的第三位置处得到的第二音频数据。
步骤303,基于预先存储的虚拟声源方向与声学变换模型的对应关系、以及第三位置相对于第二位置的方向,确定对应的目标声学变换模型。
其中,对应关系中的每个声学变换模型对应的虚拟声源距离均为预设距离。
步骤304,基于第二音频数据和对应的目标声学变换模型,确定第三音频数据,输出第三音频数据。
上述步骤301-304的处理可以参见上述实施例的内容,此处不再赘述。不同之处在于执行步骤302的时候,要在确定第一位置与第二位置之间的声音传播距离大于预设距离时,才执行。
步骤305,如果第一位置与第二位置之间的声音传播距离不大于预设距离,则基于预先存储的虚拟声源方向与声学变换模型的对应关系、以及第一位置相对于第二位置的方向,确定对应的目标声学变换模型。
在实施例中,如果第一位置与第二位置之间的声音传播距离不大于预设距离,则可以近似认为第一位置与第二位置的距离为预设距离。此时可以确定第一位置相对于第二位置的方向,进而在上述虚拟声源方向与声学变换模型的对应关系包括的各虚拟声源方向中,查找与该方向最接近的目标虚拟声源方向。进一步确定该目标虚拟声源方向对应的目标声学变换模型。
步骤306,将第一音频数据输入目标声学变换模型,得到第四音频数据,输出第四音频数据。
在实施中,在通过上述步骤305确定目标声学变换模型后,可以基于目标声学变换模型对第一音频数据进行处理,得到第四音频数据。例如,目标声学变换模型可以是卷积核,可以基于该卷积核对第一音频数据进行卷积运算,得到第四音频数据。第一音频数据是无距离属性且无方向属性的音频数据,处理后得到的第四音频数据是具有距离属性和方向属性的音频数据。在计算得到第四音频数据后,终端可以通过音频输出设备(如耳机)输出第四音频数据。
本申请实施例中,只建立虚拟声源距离为预设距离的不同虚拟声源方向的声学变换模型,进行存储,可见存储的声学变换模型的虚拟声源距离都是相同的,无需存储大量不同虚拟声源距离的声学变换模型,从而,可以减少设备存储资源的占用。
上述所有可选技术方案,可以采用任意结合形成本发明的可选实施例,在此不再一一赘述。
本申请实施例提供了一种输出音频数据的装置,该装置可以为上述实施例中的终端,如图4所示,所述装置包括:
获取模块410,被配置为获取目标场景的模型、第一音频数据、第一位置和第二位置,其中,所述第一位置是所述第一音频数据在所述目标场景中的发声位置,所述第二位置是目标听者在所述目标场景中的位置;
确定模块420,被配置为基于所述目标场景的模型、所述第一音频数据、所述第一位置和所述第二位置,确定在所述目标场景中,所述第一音频数据由所述第一位置向所述第二位置传播的过程中,传播至距所述第二位置预设距离的第三位置处得到的第二音频数据;基于预先存储的虚拟声源方向与声学变换模型的对应关系、以及所述第三位置相对于所述第二位置的方向,确定对应的目标声学变换模型,其中,所述对应关系中的每个声学变换模型对应的虚拟声源距离均为所述预设距离;基于所述第二音频数据和对应的所述目标声学变换模型,确定第三音频数据;
输出模块430,被配置为输出所述第三音频数据。
可选的,所述确定模块420,被配置为:
如果所述第一位置与所述第二位置之间的声音传播距离大于预设距离,则基于所述目标场景的模型、所述第一音频数据、所述第一位置和所述第二位置,确定在所述目标场景中,所述第一音频数据由所述第一位置向所述第二位置传播的过程中,传播至距所述第二位置预设距离的第三位置处得到的第二音频数据。
可选的,所述确定模块420,还被配置为:
如果所述第一位置与所述第二位置之间的声音传播距离不大于预设距离,则基于预先存储的虚拟声源方向与声学变换模型的对应关系、以及所述第一位置相对于所述第二位置的方向,确定对应的目标声学变换模型;将所述第一音频数据输入所述目标声学变换模型,得到第四音频数据;
所述输出模块,还被配置为:输出所述第四音频数据。
可选的,所述确定模块420,被配置为:
基于声音传播路径追踪算法、所述目标场景中的水汽含量和物体的声学属性信息,并基于所述目标场景的模型、所述第一音频数据、所述第一位置和所述第二位置,确定在所述目标场景中,所述第一音频数据由所述第一位置向所述第二位置传播的过程中,传播至距所述第二位置预设距离的第三位置处得到的第二音频数据。
可选的,所述确定模块420,被配置为:
基于所述目标场景的模型、所述第一音频数据、所述第一位置和所述第二位置,确定在所述目标场景中,所述第一音频数据通过至少一条传播路径由所述第一位置向所述第二位置传播的过程中,传播至距所述第二位置预设距离的第三位置处得到的第二音频数据,其中,所述至少一条传播路径包括直射传播路径和/或反射传播路径。
可选的,所述对应关系中的目标声学变换模型为卷积核,所述确定模块420,被配置为:
基于所述目标声学变换模型对所述第二音频数据进行卷积处理,得到第三音频数据。
本申请实施例中,只建立虚拟声源距离为预设距离的不同虚拟声源方向的声学变换模型,进行存储,可见存储的声学变换模型的虚拟声源距离都是相同的,无需存储大量不同虚拟声源距离的声学变换模型,从而,可以减少设备存储资源的占用。
需要说明的是:上述实施例提供的输出音频数据的装置在输出音频数据时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的输出音频数据的装置与输出音频数据的方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图5示出了本申请一个示例性实施例提供的终端500的结构框图。该终端500可以是:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio LayerIV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端500还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端500包括有:处理器501和存储器502。
处理器501可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器501可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器501也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器501可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器501还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器502可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器502还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器502中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器501所执行以实现本申请中方法实施例提供的输出音频数据的方法。
在一些实施例中,终端500还可选包括有:***设备接口503和至少一个***设备。处理器501、存储器502和***设备接口503之间可以通过总线或信号线相连。各个***设备可以通过总线、信号线或电路板与***设备接口503相连。具体地,***设备包括:射频电路504、触摸显示屏505、摄像头506、音频电路507、定位组件508和电源509中的至少一种。
***设备接口503可被用于将I/O(Input/Output,输入/输出)相关的至少一个***设备连接到处理器501和存储器502。在一些实施例中,处理器501、存储器502和***设备接口503被集成在同一芯片或电路板上;在一些其他实施例中,处理器501、存储器502和***设备接口503中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路504用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路504通过电磁信号与通信网络以及其他通信设备进行通信。射频电路504将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路504包括:天线***、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路504可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路504还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏505用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏505是触摸显示屏时,显示屏505还具有采集在显示屏505的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器501进行处理。此时,显示屏505还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏505可以为一个,设置终端500的前面板;在另一些实施例中,显示屏505可以为至少两个,分别设置在终端500的不同表面或呈折叠设计;在再一些实施例中,显示屏505可以是柔性显示屏,设置在终端500的弯曲表面上或折叠面上。甚至,显示屏505还可以设置成非矩形的不规则图形,也即异形屏。显示屏505可以采用LCD(LiquidCrystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件506用于采集图像或视频。可选地,摄像头组件506包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件506还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路507可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器501进行处理,或者输入至射频电路504以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端500的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器501或射频电路504的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路507还可以包括耳机插孔。
定位组件508用于定位终端500的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件508可以是基于美国的GPS(GlobalPositioning System,全球定位***)、中国的北斗***、俄罗斯的格雷纳斯***或欧盟的伽利略***的定位组件。
电源509用于为终端500中的各个组件进行供电。电源509可以是交流电、直流电、一次性电池或可充电电池。当电源509包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端500还包括有一个或多个传感器510。该一个或多个传感器510包括但不限于:加速度传感器511、陀螺仪传感器512、压力传感器513、指纹传感器514、光学传感器515以及接近传感器516。
加速度传感器511可以检测以终端500建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器511可以用于检测重力加速度在三个坐标轴上的分量。处理器501可以根据加速度传感器511采集的重力加速度信号,控制触摸显示屏505以横向视图或纵向视图进行用户界面的显示。加速度传感器511还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器512可以检测终端500的机体方向及转动角度,陀螺仪传感器512可以与加速度传感器511协同采集用户对终端500的3D动作。处理器501根据陀螺仪传感器512采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器513可以设置在终端500的侧边框和/或触摸显示屏505的下层。当压力传感器513设置在终端500的侧边框时,可以检测用户对终端500的握持信号,由处理器501根据压力传感器513采集的握持信号进行左右手识别或快捷操作。当压力传感器513设置在触摸显示屏505的下层时,由处理器501根据用户对触摸显示屏505的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器514用于采集用户的指纹,由处理器501根据指纹传感器514采集到的指纹识别用户的身份,或者,由指纹传感器514根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器501授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器514可以被设置终端500的正面、背面或侧面。当终端500上设置有物理按键或厂商Logo时,指纹传感器514可以与物理按键或厂商Logo集成在一起。
光学传感器515用于采集环境光强度。在一个实施例中,处理器501可以根据光学传感器515采集的环境光强度,控制触摸显示屏505的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏505的显示亮度;当环境光强度较低时,调低触摸显示屏505的显示亮度。在另一个实施例中,处理器501还可以根据光学传感器515采集的环境光强度,动态调整摄像头组件506的拍摄参数。
接近传感器516,也称距离传感器,通常设置在终端500的前面板。接近传感器516用于采集用户与终端500的正面之间的距离。在一个实施例中,当接近传感器516检测到用户与终端500的正面之间的距离逐渐变小时,由处理器501控制触摸显示屏505从亮屏状态切换为息屏状态;当接近传感器516检测到用户与终端500的正面之间的距离逐渐变大时,由处理器501控制触摸显示屏505从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图5中示出的结构并不构成对终端500的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在示例性实施例中,还提供了一种计算机可读存储介质,例如包括指令的存储器,上述指令可由终端中的处理器执行以完成上述实施例中输出音频数据的方法。例如,所述计算机可读存储介质可以是只读存储器(Read-only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的较佳实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (14)

1.一种输出音频数据的方法,其特征在于,所述方法包括:
获取目标场景的模型、第一音频数据、第一位置和第二位置,其中,所述第一位置是所述第一音频数据在所述目标场景中的发声位置,所述第二位置是目标听者在所述目标场景中的位置;
基于所述目标场景的模型、所述第一音频数据、所述第一位置和所述第二位置,确定在所述目标场景中,所述第一音频数据由所述第一位置向所述第二位置传播的过程中,传播至距所述第二位置预设距离的第三位置处得到的第二音频数据;
基于预先存储的虚拟声源方向与声学变换模型的对应关系、以及所述第三位置相对于所述第二位置的方向,确定对应的目标声学变换模型,其中,所述对应关系中的每个声学变换模型对应的虚拟声源距离均为所述预设距离;
基于所述第二音频数据和对应的所述目标声学变换模型,确定第三音频数据,输出所述第三音频数据。
2.根据权利要求1所述的方法,其特征在于,所述基于所述目标场景的模型、所述第一音频数据、所述第一位置和所述第二位置,确定在所述目标场景中,所述第一音频数据由所述第一位置向所述第二位置传播的过程中,传播至距所述第二位置预设距离的第三位置处得到的第二音频数据,包括:
如果所述第一位置与所述第二位置之间的声音传播距离大于预设距离,则基于所述目标场景的模型、所述第一音频数据、所述第一位置和所述第二位置,确定在所述目标场景中,所述第一音频数据由所述第一位置向所述第二位置传播的过程中,传播至距所述第二位置预设距离的第三位置处得到的第二音频数据。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
如果所述第一位置与所述第二位置之间的声音传播距离不大于预设距离,则基于预先存储的虚拟声源方向与声学变换模型的对应关系、以及所述第一位置相对于所述第二位置的方向,确定对应的目标声学变换模型;
将所述第一音频数据输入所述目标声学变换模型,得到第四音频数据,输出所述第四音频数据。
4.根据权利要求1所述的方法,其特征在于,所述基于所述目标场景的模型、所述第一音频数据、所述第一位置和所述第二位置,确定在所述目标场景中,所述第一音频数据由所述第一位置向所述第二位置传播的过程中,传播至距所述第二位置预设距离的第三位置处得到的第二音频数据,包括:
基于声音传播路径追踪算法、所述目标场景中的水汽含量和物体的声学属性信息,并基于所述目标场景的模型、所述第一音频数据、所述第一位置和所述第二位置,确定在所述目标场景中,所述第一音频数据由所述第一位置向所述第二位置传播的过程中,传播至距所述第二位置预设距离的第三位置处得到的第二音频数据。
5.根据权利要求1所述的方法,其特征在于,所述基于所述目标场景的模型、所述第一音频数据、所述第一位置和所述第二位置,确定在所述目标场景中,所述第一音频数据由所述第一位置向所述第二位置传播的过程中,传播至距所述第二位置预设距离的第三位置处得到的第二音频数据,包括:
基于所述目标场景的模型、所述第一音频数据、所述第一位置和所述第二位置,确定在所述目标场景中,所述第一音频数据通过至少一条传播路径由所述第一位置向所述第二位置传播的过程中,传播至距所述第二位置预设距离的第三位置处得到的第二音频数据,其中,所述至少一条传播路径包括直射传播路径和/或反射传播路径。
6.根据权利要求1-5任一所述的方法,其特征在于,所述对应关系中的目标声学变换模型为卷积核,所述基于所述第二音频数据和对应的所述目标声学变换模型,确定第三音频数据,包括:
基于所述目标声学变换模型对所述第二音频数据进行卷积处理,得到第三音频数据。
7.一种输出音频数据的装置,其特征在于,所述装置包括:
获取模块,被配置为获取目标场景的模型、第一音频数据、第一位置和第二位置,其中,所述第一位置是所述第一音频数据在所述目标场景中的发声位置,所述第二位置是目标听者在所述目标场景中的位置;
确定模块,被配置为基于所述目标场景的模型、所述第一音频数据、所述第一位置和所述第二位置,确定在所述目标场景中,所述第一音频数据由所述第一位置向所述第二位置传播的过程中,传播至距所述第二位置预设距离的第三位置处得到的第二音频数据;基于预先存储的虚拟声源方向与声学变换模型的对应关系、以及所述第三位置相对于所述第二位置的方向,确定对应的目标声学变换模型,其中,所述对应关系中的每个声学变换模型对应的虚拟声源距离均为所述预设距离;基于所述第二音频数据和对应的所述目标声学变换模型,确定第三音频数据;
输出模块,被配置为输出所述第三音频数据。
8.根据权利要求7所述的装置,其特征在于,所述确定模块,被配置为:
如果所述第一位置与所述第二位置之间的声音传播距离大于预设距离,则基于所述目标场景的模型、所述第一音频数据、所述第一位置和所述第二位置,确定在所述目标场景中,所述第一音频数据由所述第一位置向所述第二位置传播的过程中,传播至距所述第二位置预设距离的第三位置处得到的第二音频数据。
9.根据权利要求8所述的装置,其特征在于,所述确定模块,还被配置为:
如果所述第一位置与所述第二位置之间的声音传播距离不大于预设距离,则基于预先存储的虚拟声源方向与声学变换模型的对应关系、以及所述第一位置相对于所述第二位置的方向,确定对应的目标声学变换模型;将所述第一音频数据输入所述目标声学变换模型,得到第四音频数据;
所述输出模块,还被配置为:输出所述第四音频数据。
10.根据权利要求7所述的装置,其特征在于,所述确定模块,被配置为:
基于声音传播路径追踪算法、所述目标场景中的水汽含量和物体的声学属性信息,并基于所述目标场景的模型、所述第一音频数据、所述第一位置和所述第二位置,确定在所述目标场景中,所述第一音频数据由所述第一位置向所述第二位置传播的过程中,传播至距所述第二位置预设距离的第三位置处得到的第二音频数据。
11.根据权利要求7所述的装置,其特征在于,所述确定模块,被配置为:
基于所述目标场景的模型、所述第一音频数据、所述第一位置和所述第二位置,确定在所述目标场景中,所述第一音频数据通过至少一条传播路径由所述第一位置向所述第二位置传播的过程中,传播至距所述第二位置预设距离的第三位置处得到的第二音频数据,其中,所述至少一条传播路径包括直射传播路径和/或反射传播路径。
12.根据权利要求7-11任一所述的装置,其特征在于,所述对应关系中的目标声学变换模型为卷积核,所述确定模块,被配置为:
基于所述目标声学变换模型对所述第二音频数据进行卷积处理,得到第三音频数据。
13.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述指令由所述处理器加载并执行以实现如权利要求1至权利要求6任一项所述的输出音频数据的方法所执行的操作。
14.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令,所述指令由处理器加载并执行以实现如权利要求1至权利要求6任一项所述的输出音频数据的方法所执行的操作。
CN201910652191.2A 2019-07-18 2019-07-18 输出音频数据的方法、装置、设备和存储介质 Active CN110401898B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910652191.2A CN110401898B (zh) 2019-07-18 2019-07-18 输出音频数据的方法、装置、设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910652191.2A CN110401898B (zh) 2019-07-18 2019-07-18 输出音频数据的方法、装置、设备和存储介质

Publications (2)

Publication Number Publication Date
CN110401898A true CN110401898A (zh) 2019-11-01
CN110401898B CN110401898B (zh) 2021-05-07

Family

ID=68324562

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910652191.2A Active CN110401898B (zh) 2019-07-18 2019-07-18 输出音频数据的方法、装置、设备和存储介质

Country Status (1)

Country Link
CN (1) CN110401898B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112882568A (zh) * 2021-01-27 2021-06-01 深圳市慧鲤科技有限公司 音频播放方法及装置、电子设备和存储介质
CN112908302A (zh) * 2021-01-26 2021-06-04 腾讯音乐娱乐科技(深圳)有限公司 一种音频处理方法、装置、设备及可读存储介质
CN113362864A (zh) * 2021-06-16 2021-09-07 北京字节跳动网络技术有限公司 音频信号处理的方法、装置、存储介质及电子设备
CN116935824A (zh) * 2023-09-18 2023-10-24 腾讯科技(深圳)有限公司 音频数据的滤波方法、装置、设备和存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8374365B2 (en) * 2006-05-17 2013-02-12 Creative Technology Ltd Spatial audio analysis and synthesis for binaural reproduction and format conversion
US9226090B1 (en) * 2014-06-23 2015-12-29 Glen A. Norris Sound localization for an electronic call
CN107172566A (zh) * 2017-05-11 2017-09-15 广州酷狗计算机科技有限公司 音频处理方法及装置
CN108597033A (zh) * 2018-04-27 2018-09-28 深圳市零度智控科技有限公司 Vr游戏中现实障碍物的规避方法、vr设备及存储介质
CN109618274A (zh) * 2018-11-23 2019-04-12 华南理工大学 一种基于角度映射表的虚拟声重放方法、电子设备及介质
CN109885945A (zh) * 2019-02-26 2019-06-14 哈尔滨工程大学 一种半空间环境下的边界元法近场声全息变换方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8374365B2 (en) * 2006-05-17 2013-02-12 Creative Technology Ltd Spatial audio analysis and synthesis for binaural reproduction and format conversion
US9226090B1 (en) * 2014-06-23 2015-12-29 Glen A. Norris Sound localization for an electronic call
CN107172566A (zh) * 2017-05-11 2017-09-15 广州酷狗计算机科技有限公司 音频处理方法及装置
CN108597033A (zh) * 2018-04-27 2018-09-28 深圳市零度智控科技有限公司 Vr游戏中现实障碍物的规避方法、vr设备及存储介质
CN109618274A (zh) * 2018-11-23 2019-04-12 华南理工大学 一种基于角度映射表的虚拟声重放方法、电子设备及介质
CN109885945A (zh) * 2019-02-26 2019-06-14 哈尔滨工程大学 一种半空间环境下的边界元法近场声全息变换方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CARLOS: ""2-D AuditoryMapping of Virtual Environment Using Real-Time Head Related Transfer Functions"", 《PROCEEDINGS IEEE SOUTHEASTCON 2002》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112908302A (zh) * 2021-01-26 2021-06-04 腾讯音乐娱乐科技(深圳)有限公司 一种音频处理方法、装置、设备及可读存储介质
CN112908302B (zh) * 2021-01-26 2024-03-15 腾讯音乐娱乐科技(深圳)有限公司 一种音频处理方法、装置、设备及可读存储介质
CN112882568A (zh) * 2021-01-27 2021-06-01 深圳市慧鲤科技有限公司 音频播放方法及装置、电子设备和存储介质
CN113362864A (zh) * 2021-06-16 2021-09-07 北京字节跳动网络技术有限公司 音频信号处理的方法、装置、存储介质及电子设备
CN116935824A (zh) * 2023-09-18 2023-10-24 腾讯科技(深圳)有限公司 音频数据的滤波方法、装置、设备和存储介质
CN116935824B (zh) * 2023-09-18 2023-12-29 腾讯科技(深圳)有限公司 音频数据的滤波方法、装置、设备和存储介质

Also Published As

Publication number Publication date
CN110401898B (zh) 2021-05-07

Similar Documents

Publication Publication Date Title
CN110401898A (zh) 输出音频数据的方法、装置、设备和存储介质
CN110139142A (zh) 虚拟物品显示方法、装置、终端及存储介质
CN110244998A (zh) 页面背景、直播页面背景的设置方法、装置及存储介质
CN107959860A (zh) 显示直播列表的方法和装置
CN109685876A (zh) 毛发渲染方法、装置、电子设备及存储介质
CN110379430A (zh) 基于语音的动画显示方法、装置、计算机设备及存储介质
CN108401124A (zh) 视频录制的方法和装置
CN109151593A (zh) 主播推荐方法、装置存储介质
CN108848394A (zh) 视频直播方法、装置、终端及存储介质
CN108922506A (zh) 歌曲音频生成方法、装置和计算机可读存储介质
EP3618055B1 (en) Audio mixing method and terminal, and storage medium
CN108965757A (zh) 视频录制方法、装置、终端及存储介质
CN109068008A (zh) 铃声设置方法、装置、终端及存储介质
CN109147757A (zh) 歌声合成方法及装置
CN109522863A (zh) 耳部关键点检测方法、装置及存储介质
CN109275013A (zh) 虚拟物品展示的方法、装置、设备及存储介质
CN110248236A (zh) 视频播放方法、装置、终端及存储介质
CN110139143A (zh) 虚拟物品显示方法、装置、计算机设备以及存储介质
CN108900925A (zh) 设置直播模板的方法和装置
CN109192218A (zh) 音频处理的方法和装置
CN109684278A (zh) 文件获取方法、装置、终端及存储介质
CN109192223A (zh) 音频对齐的方法和装置
CN108922533A (zh) 确定是否是真唱的方法和装置
CN109547847A (zh) 添加视频信息的方法、装置及计算机可读存储介质
CN109273008A (zh) 语音文件的处理方法、装置、计算机存储介质和终端

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant