CN112165647B - 音频数据的处理方法、装置、设备及存储介质 - Google Patents
音频数据的处理方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN112165647B CN112165647B CN202010873112.3A CN202010873112A CN112165647B CN 112165647 B CN112165647 B CN 112165647B CN 202010873112 A CN202010873112 A CN 202010873112A CN 112165647 B CN112165647 B CN 112165647B
- Authority
- CN
- China
- Prior art keywords
- audio
- sound effect
- audio data
- data
- sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003860 storage Methods 0.000 title claims abstract description 24
- 238000003672 processing method Methods 0.000 title description 4
- 230000000694 effects Effects 0.000 claims abstract description 270
- 238000000034 method Methods 0.000 claims abstract description 89
- 238000012545 processing Methods 0.000 claims abstract description 27
- 238000004590 computer program Methods 0.000 claims description 17
- 230000001960 triggered effect Effects 0.000 claims description 5
- 238000005562 fading Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 8
- 238000009499 grossing Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 4
- 238000003825 pressing Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000012550 audit Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/57—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for processing of video signals
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/34—Indicating arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47205—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Security & Cryptography (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
- User Interface Of Digital Computer (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
本公开实施例涉及一种音频数据的处理方法、装置、设备及存储介质,其中该方法包括:获取第一音频数据上的第一播放位置以及用户对第一音效的试听指令,将第一音效添加到第一音频数据中的第一音频片段上,生成音效试听数据并进行播放,若接收到用户对第二音效的第一添加指令,则根据第一添加指令中携带的第一添加长度的信息,将第二音效添加到第一音频数据中以第一播放位置为起始位置的第二音频片段上,得到第二音频数据。本公开实施例提供的方案,能够提高音效添加效果的趣味性,增强用户体验。
Description
技术领域
本公开实施例涉及音频数据处理技术领域,尤其涉及一种音频数据的处理方法、装置、设备及存储介质。
背景技术
相关技术提供的视频应用具有变声功能,通过该变声功能用户可在视频中添加自己喜欢的变声音效。但是相关技术一般只能在整段视频上添加变声音效,且一段视频中只能添加一个变声音效。
发明内容
为了解决上述技术问题或者至少部分地解决上述技术问题,本公开实施例提供了一种音频数据的处理方法、装置、设备及存储介质。
本公开实施例的第一方面提供了一种音频数据的处理方法,该方法包括:获取第一音频数据上的第一播放位置,以及用户对第一音效的试听指令;将第一音效添加到第一音频数据中的第一音频片段上,生成音效试听数据,并对音效试听数据进行播放,其中,第一音频片段是指第一音频数据中以所述第一播放位置为起始位置的音频片段;然后在接收到用户对第二音效的第一添加指令时,将第二音效添加到第一音频数据中的第二音频片段上,得到第二音频数据,其中,第一添加指令包括第二音效在第一音频数据中的第一添加长度的信息,第二音频片段是指第一音频数据中以第一播放位置为起始位置,长度为第一添加长度的音频片段。
本公开实施例的第二方面提供了一种音频数据的处理装置,该装置包括:
第一获取模块,用于获取第一音频数据上的第一播放位置,以及用户对第一音效的试听指令。
第一音效添加模块,用于将第一音效添加到第一音频数据中的第一音频片段上,生成音效试听数据,并对音效试听数据进行播放,其中,第一音频片段是指第一音频数据中以第一播放位置为起始位置的音频片段。
第一接收模块,用于接收到用户对第二音效的第一添加指令,第一添加指令包括第二音效在第一音频数据中的第一添加长度的信息。
第二音效添加模块,用于将第二音效添加到第一音频数据中的第二音频片段上,得到第二音频数据,其中,第二音频片段是指以所述第一播放位置为起始位置,长度为第一添加长度的音频片段。
本公开实施例的第三方面提供了一种终端设备,该终端设备包括存储器和处理器,其中,存储器中存储有计算机程序,当该计算机程序被处理器执行时,可以实现上述第一方面的方法。
本公开实施例的第四方面提供了一种计算机可读存储介质,该存储介质中存储有计算机程序,当该计算机程序被处理器执行时,可以实现上述第一方面的方法。
本公开实施例提供的技术方案与现有技术相比具有如下优点:
本公开实施例,通过获取第一音频数据上的第一播放位置以及用户对第一音效的试听指令,将第一音效添加到第一音频数据中的第一音频片段上得到用于试听的音效试听数据,然后对音效试听数据进行播放,并在接收到用户对第二音效的第一添加指令时,根据第一添加指令中携带的第一添加长度的信息,将第二音效添加到第一音频数据中以第一播放位置为起始位置的第二音频片段上,得到第二音频数据。基于本公开实施例的方案,用户可以选择音频数据上的任意位置进行音效效果的试听,并根据试听结果将满意的音效添加到音频数据的某一个音频片段上,从而相比于音效添加效果不能试听的情况,用户能够通过试听挑选自己满意的音效,然后将自己满意的音效添加到音频数据上,这样就能保证用户最终选择添加到音频数据上的音效都是用户满意的音效,不会出现因为添加的音效不满意而反复重新添加的情况,简化了用户的操作,提升了用户体验。另外,通过本公开实施例的方案用户可以在音频数据中的特定音频片段上添加特定音效,并且在音频数据的多个音频片段上可以对应添加多个音效,提高了音效添加的趣味性,增强了用户体验。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本公开实施例提供的一种音频数据的处理方法的流程图;
图2A-图2B是本公开实施例提供的一种操作界面的操作方法示意图;
图3A是本公开实施例提供的一种音效添加方法的示意图;
图3B是本公开实施例提供的另一种音效添加方法的示意图;
图4A-图4B是本公开实施例提供的又一种音效添加方法的示意图;
图5A-图5B是本公开实施例提供的又一种音效添加方法的示意图;
图6是本公开实施例提供的一种音频平滑方法的示意图;
图7是本公开实施例提供的又一种音频数据的处理方法的流程图;
图8是本公开实施例提供的一种音效添加方法的示意图;
图9是本公开实施例提供的一种音频数据的处理装置的结构示意图;
图10是本公开实施例中的一种终端设备的结构示意图。
具体实施方式
为了能够更清楚地理解本公开的上述目的、特征和优点,下面将对本公开的方案进行进一步描述。需要说明的是,在不冲突的情况下,本公开的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本公开,但本公开还可以采用其他不同于在此描述的方式来实施;显然,说明书中的实施例只是本公开的一部分实施例,而不是全部的实施例。
图1是本公开实施例提供的一种音频数据的处理方法的流程图,该方法可以由一种终端设备来执行。该终端设备可以示例性的理解为诸如手机、平板电脑、笔记本电脑、台式机、智能电视等具有音频处理能力和视频播放能力的设备。在一些实施例中,本实施例所称的终端设备上可以搭载声音采集设备(比如麦克风,但不局限于麦克风),终端设备可以通过声音采集设备采集音频数据,并通过本实施例的方法在音频数据上添加一个或多个音效,其中本实施例所称的音效是指能够叠加到音频数据上,使得原音频数据产生特定声音表现效果(比如,颤抖效果,电音效果、卡通人物效果,但不局限于这些效果)的一种声音形式。在另一些实施例中,本实施例所称的终端设备上还可以同时搭载拍摄设备和声音采集设备,拍摄设备采集视频图像的同时声音采集设备采集音频数据,生成有声视频,终端设备可以采用本实施例的方法在有声视频的音频数据上添加一个或多个音效。如图1所示,本实施例提供的方法包括如下步骤:
步骤101、获取第一音频数据上的第一播放位置,以及用户对第一音效的试听指令。
其中,本实施例中对于“第一音频数据”的命名仅是为了方便区分本实施所例涉及的多个音频数据,而不具有其他含义。本实施例所称的第一音频数据可以理解为视频编辑界面中待编辑视频的音频数据或者通过其他方式录制得到的音频数据。本实施例所称的第一音频数据可以是已经添加有一个或者多个音效的音频数据,或者也可以是未添加过任何音效的音频数据。其中,当第一音频数据被具体为已添加有一个音效的音频数据时,该音效可以被添加在第一音频数据的全部音频数据上,也可以添加在第一音频数据的某一个音频片段上。当第一音频数据被具体为添加有多个音效的音频数据时,该多个音效可以被理解为添加在音频数据的不同音频片段上,比如,一个音频片段上添加一个音效。
本实施例所称的第一播放位置,可以理解为用户从第一音频数据中选择的位置,或者在用户未选择位置的情况下,也可以理解为第一音频数据上的默认位置,比如,音频数据的起始位置或者中间位置等,但是不局限于这些位置。
本实施例所称的获取第一音频数据上的第一播放位置,以及用户对第一音效的试听指令的操作,至少可由如下用户操作中的一种触发:用户在操作界面上的预设操作、预设的语音指令。
示例的,图2A-图2B是本公开实施例提供的一种操作界面的操作方法示意图,如图2A-图2B所示,该操作界面上包括显示区域21、第一操作区域22和第二操作区域23。其中,第一操作区域22中包括播放进度控件,通过移动播放进度控件上的焦点的位置,可以选择第一音频数据的播放位置。第二操作区域23中包括至少一个音效控件,其中每个音效控件对应一种音效。当第一音频数据被具体为视频的音频数据时,图2A和图2B所示的界面可以被具体为视频编辑界面。此时显示区域21用于显示视频图像,第一操作区域22中的播放进度控件用于调整视频的播放位置,此时可以根据视频播放位置与第一音频数据之间的对应关系,将视频的播放位置映射到第一音频数据上得到第一音频数据的播放位置(即本实施例所称的第一播放位置)。当第一音频数据仅是通过声音采集设备采集得到的音频数据,没有对应的视频图像时,图2A和图2B所示的界面可以被具体为音频编辑界面,此时显示区域21可以用于显示第一音频数据的声音曲线,播放进度控件上的焦点位置表示第一音频数据的播放位置。
参见图2A,在图2A所示的界面中用户可以在播放进度轴(即图 2A中焦点所在的直线)的任意位置上执行点击操作,比如,在一个示例性的实施方式中,图2A所示的界面可以向用户显示用于提示用户选择音效起始位置的提示信息,该提示信息能够帮助用户快速的在播放进度轴上选择一个位置。比如,当用户点击播放进度轴的一个位置时,播放进度控件的焦点将移动到用户点击的位置。此时将焦点在播放进度轴上的位置映射到第一音频数据上即可得到本实施例所称的第一播放位置。或者在其他实施方式中,用户也可以根据提示信息在播放进度轴上拖动焦点移动,当焦点停止移动时,将焦点在播放进度轴上的位置映射到第一音频数据上即得到本实施例所称的第一播放位置。参见图2B,在用户选定第一播放位置之后,用户通过对第二操作区域23 上的某个音效控件执行预设操作来触发试听指令,其中预设操作比如可以是单击某个音效控件,连续多次的点击某个音效控件、向预设方向滑动某个音效控件中的一种,但不局限于上述这些预设操作。比如,当用户对图2B中的音效控件2执行预设操作时,音效控件2对应的音效的试听指令被触发,此时音效控件2的音效为本实施例所称的第一音效,若用户对音效控件2的音效试听效果不满意,用户还可以继续对第二操作区域23中的其他音效控件执行预设操作,触发对其他音效控件的音效进行试听。其中,在一些实施方式中,图2B的显示界面中还可以用于显示如何进行音效试听的提示消息,从而通过该提示消息教导用户如何快速的进行音效试听,降低用户的使用难度。
当然上述仅是以图2A和图2B进行的示例说明,并不是对本实施例的唯一限定。
步骤102、将第一音效添加到第一音频数据中的第一音频片段上,生成音效试听数据,并对音效试听数据进行播放,其中,第一音频片段是指第一音频数据中以第一播放位置为起始位置的音频片段。
示例的,本实施例所称的第一音效的添加方法包括如下几种:
在一种添加方法中,可以将第一音效添加到第一音频数据在第一播放位置之后的全部音频数据上。例如,图3A是本公开实施例提供的一种音效添加方法的示意图,如图3A所示,在图3A中,第一音频数据被示例性的具体为长度为m秒的音频数据,用户选择的第一播放位置被示例性的具体为音频数据的第f秒的位置。那么在一种示例性的音效添加方法中可以将第一音效添加到第f秒到第m秒这段音频片段上。
在另一种添加方法中,可以将第一音效添加到第一音频数据中以第一播放位置为起始位置,长度为预设时长(比如1秒,但不局限于1 秒)的音频片段中。例如图3B是本公开实施例提供的另一种音效添加方法的示意图,如图3B所示,在图3B中,第一音频数据被示例性的具体为长度为G秒的音频数据,用户选择的第一播放位置被示例性的具体为音频数据的第K秒的位置。那么在一种示例性的音效添加方法中可以将第一音效添加到第一音频数据在第K秒之后的预设时长内的音频数据上。
需要说明的是,本实施例虽然只给出了上述两种第一音效的添加方法,但是并不说明实施例的第一音效添加方法只有上述两种,实际上,第一音效的添加方法可以根据需要进行设定,而不必局限于某一种或者几种固定的添加方法。
参见图2A或者图2B所示的界面,在播放音效试听数据时,播放进度控件上的焦点在播放进度轴上同步移动。在一个示例中,在音效试听数据播放完毕之后,焦点在播放进度轴上的位置,将被恢复到用户选择的音效起始位置。也就是说音效试听数据播放完毕之后,本实施例所称的第一音频数据的播放位置将被恢复到本实施例所称的第一播放位置。当然这里只是本实施例的一种实现方式并不是全部方式,实际上,在其他实现方式中,音效试听数据播放完毕之后,焦点位置也可以不恢复到用户选择的初始位置上。
本实施例通过在音效试听数据播放完毕之后,将第一音频数据的播放位置恢复到第一播放位置,能够方便用户对多个音效进行试听,当用户需要对当前音效以外的其他音效进行试听时,不用重新选择音效的起始位置,简化了用户的操作,提升了用户体验。另外,如果用户对当前音效满意,也不用重新再查找试听时的音效起始位置,在简化用户操作的同时也提高了音效添加的准确性。
步骤103、接收到用户对第二音效的第一添加指令,第一添加指令包括第二音效在第一音频数据中的第一添加长度的信息。
本实施例所称的第一添加指令可示例性的由预设的界面操作或者语音指令触发,其中预设的界面操作比如可以是长按音效控件的操作,向预设方向滑动的操作,连续点击音效控件的操作,但不局限于这些操作。
参见图2A或者图2B的显示界面,在一些实施例中,终端设备的显示界面上,还可以显示用于提示用户如何将音效添加到第一音频数据中的提示信息,通过该提示消息,用户可以快速的将音效添加到第一音频数据。
本实施例,通过在显示见面上显示教导用户如何添加音效的提示信息,能够使得用户快速的获得音效的添加方法,并顺利的将音效添加到音频数据中,提高了用户操作的流畅性和体验。
本实施例所称的第一添加长度的信息示例性的可以包括音效截止位置的信息或者音效持续时长的信息。
步骤104、将第二音效添加到第一音频数据中的第二音频片段上,得到第二音频数据,其中,第二音频片段是指以第一播放位置为起始位置,长度为第一添加长度的音频片段。
其中,本实施例所称的第二音效可以是用户试听过的第一音效,也可以是用户从操作界面上选择的未经试听的音效。
在本实施例中,第二音效的添加方法至少可以包括如下几种:
在一种添加方法中,在获得第一音频数据上的第一播放位置后,用户可以通过长按音效控件的方式,从第一播放位置开始将音效控件对应的第二音效添加到第一音频数据上,当用户抬起手指时,停止添加音效,得到第一添加长度的音频片段(即本实施例所称的第二音频片段)。例如,图4A-图4B是本公开实施例提供的又一种音效添加方法的示意图,在图4A-图4B中,播放位置f为用户选择的音效起始添加位置(即第一播放位置)。如图4A所示,当用户长按音效控件n时,如果检测到用户的按压时间大于第一预设时间(比如0.5秒,但不局限于0.5秒),则从播放位置f开始将音效控件n对应的音效(即第二音效)添加到第一音频数据中,此时从播放位置f开始播放音效添加后的效果,播放进度控件上的焦点随着音频数据的播放在播放进度轴上按照图4A中的箭头方向移动。如图4B所示,假设当焦点移动到位置u 时用户抬起手指,则在位置u处停止音效添加,第一音频数据上对应位置f到位置u的这段音频即为本实施例所称的第二音频片段。
在另一种添加方法中,在获得第一音频数据上的第一播放位置后,用户可以通过向预设方向滑动音效控件触发音效的添加操作。当用户向预设方向滑动某一音效控件时,该音效控件对应的音效(即第二音效)从第一播放位置开始添加到第一音频数据上,当用户再次向预设方向或者该预设方向的反方向滑动该音效控件时,停止添加音效,该音效在第一音频数据上的结束位置暂且称为第三播放位置。则第一音频数据上位于第一播放位置和第三播放位置之间的这段音频片段即为本实施例所称的第二音频片段。例如,图5A-图5B是本公开实施例提供的又一种音效添加方法的示意图,在图5A-图5B中,播放位置f为用户选择的音效起始添加位置(即第一播放位置)。如图5A所示,当用户向上滑动音效控件n时,音效控件n对应的音效(即第二音效) 从播放位置f开始将添加到第一音频数据中,此时从播放位置f开始播放音效添加后的效果,播放进度控件上的焦点随着第一音频数据的播放在播放进度轴上按照图5A中的箭头方向移动。如图5B所示,假设用户在焦点移动到位置u时向下滑动音效控件n,则音效添加到位置u 为止,位置u为音效结束位置,第一音频数据上对应位置f到位置u 的这段音频片段,即本实施例所称的第二音频片段。
在又一种添加方法中,在获得第一音频数据上的第一播放位置后,用户可以通过连续点击音效控件来触发音效的添加操作。此时音效控件对应的音效(即第二音效)从第一播放位置开始添加到第一音频数据上,当用户再次对该音效控件执行连续点击操作时,停止添加音效,则第一音频数据上从第一播放位置开始到停止添加音效这段时间的音频片段即为本实施例所称的第二音频片段。
当然这里虽然仅提供了三种音效添加方式,但是这三种方式并不是本实施例的唯一方式,实际上本实施例的音效添加方式可以根据需要进行设定,而不必局限于某一种或几种方式。
值得说明的是,虽然在本实施例的上述方法中一直描述的是将一种音效添加到音频数据的一个音频片段上,但是本领域技术人员可以理解的是,遵循上述方法也可以在一个音频数据中添加多个音效。比如,在基于上述方法得到第二音频数据之后,本实施例还可以继续采用上述方法获取第二音频数据上的第二播放位置,以及用户对第三音效的第二添加指令,并根据第二添加指令,将第三音效添加到第二音频数据中的第三音频片段上,得到第三音频数据,这样得到的第三音频数据就是包括两种音效的音频数据,其中,第三音频片段可以理解为第二音频数据中以第二播放位置为起始位置,长度为第二添加长度的音频片段。
进一步的,考虑到两个不同的音效如果是连接在一起的,那么音效的连接处可能会产生音爆。为了解决这一问题,本实施例还提供了一种平滑处理方法,该方法通过对两个音效中的前一个进行淡出处理,对后一个进行淡入处理来避免产生音爆,使得两个音效的连接处能够平滑过渡。例如,图6是本公开实施例提供的一种音频平滑方法的示意图,图6中的两条横线之间的宽度表示音量。如图6所示,假设图6 中的音效61为本实施例所称的第二音效、音效62为本实施例所称的第三音效,第二音效的结束位置63为第三音效的起始位置,那么在对第二音效和第三音效的连接处进行平滑处理时,需要对第二音效进行淡出处理,使得第二音效在相距结束位置63预设距离的位置64上开始降低音量,并在结束位置63处降低到0,此时为了音频数据的音量不会出现忽大忽小的情况,可以从位置64处开始对第三音效进行渐入处理,使得第三音效的音量从位置64开始逐渐增大,并在结束位置63 处增大到设定值。这样通过对两个连续的音效进行交叉淡出处理,能够使得两个音效的连接处平滑过渡,避免了音爆的产生,提升了用户体验。当然图6提供的平滑方法仅为示例性说明,并不是本实施例的唯一限定,实际上,相关技术已经提供了多种音频的平滑方法,本实施例可以根据需要采用其中的任意一种。
本实施例,通过获取第一音频数据上的第一播放位置以及用户对第一音效的试听指令,将第一音效添加到第一音频数据中的第一音频片段上得到用于试听的音效试听数据,然后对音效试听数据进行播放,并在接收到用户对第二音效的第一添加指令时,根据第一添加指令中携带的第一添加长度的信息,将第二音效添加到第一音频数据中以第一播放位置为起始位置的第二音频片段上,得到第二音频数据。基于本实施例的方案,用户可以选择音频数据上的任意位置进行音效效果的试听,并根据试听结果将满意的音效添加到音频数据的某一个音频片段上,从而相比于音效添加效果不能试听的情况,用户能够通过试听挑选自己满意的音效,然后将自己满意的音效添加到音频数据上,这样就能保证用户最终选择添加到音频数据上的音效都是用户满意的音效,不会出现因为添加的音效不满意而反复重新添加的情况,简化了用户的操作,提升了用户体验。另外,通过本实施例的方案用户可以在音频数据中的特定音频片段上添加特定音效,并且在音频数据的多个音频片段上可以对应添加多个音效,提高了音效添加的趣味性,增强了用户体验。
图7是本公开实施例提供的又一种音频数据的处理方法的流程图,如图7所示,上述第一音效的添加方法包括如下步骤:
步骤701、基于预设的声音识别模型从第一音频片段中识别出目标声音。
步骤702、将第一音效添加到第一音频片段中的目标声音上,生成第一音效在第一音频片段上的试听数据。
示例的,本实施例所称的目标声音包括如下中的至少一种:人声、动物声、车辆声、乐器声、背景声、前景声。
本实施例所称的声音识别模型可以示例性的理解为通过模型训练方法预先训练得到的可对上述目标声音中的一种或多种进行识别和提取的模型。其中,该模型至少可以是如下模型中的一种,但不局限于如下这些模型:支持向量机模型、深度神经网络模型,逻辑回归模型等。
参见图3A和图3B的方法,在基于第一播放位置得到以第一播放位置为起始位置的第一音频片段之后,本实施例可以向用户提供一个编辑界面,该界面上可以包括至少一个声音选项,用户可以从该些声音选项中选择一个或者多个作为目标声音,然后用于识别该些目标声音的声音识别模型被调用,通过该些模型从第一音频片段中识别出该些目标声音,得到该些目标声音所在的位置,进一步的,在得到该些目标声音所在的位置之后,一种可行的方式是将第一音效添加到该些目标声音所在的位置上生成试听数据,另一种可行的方式是先将目标声音的音频数据从目标声音所在的位置上分离出来,将第一音效添加到目标声音的音频数据上得到变音数据,然后再将变音数据添加到目标声音在第一音频片段上位置得到试听数据。比如,图8是本公开实施例提供的一种音效添加方法的示意图,图8中的横线表示音频数据,如图8所示,假设基于声音识别模型识别出目标声音的位置为q和w。那么执行音效添加操作时可以直接将音效添加到音频数据的q位置和 w位置上,或者也可以将目标声音的数据从q位置和w位置上分离出来,然后将音效分别添加q位置的目标声音上和w位置的目标声音上,得到q位置的变音数据和w位置的变音数据,然后再将q位置的变音数据添加到音频数据的q位置,将w位置的变音数据添加到音频数据的w位置,得到试听数据。当然这里仅为示例说明,并不是对本实施例音效添加方法的唯一限定。
值得说明的是,在一些实施例中本实施例的音效添加方法也可以应用到上述实施例中的第二音效添加过程中,即基于本实施例的方法可以将第二音效添加到上述第二音频片段的目标声音上,其具体添加方法可以参照本实施例的方法,在这里不再赘述。
本实施例通过预设的声音识别模型对音频片段中的目标声音进行识别,并将音效添加到该音频片段的目标声音上,能够使得音效添加效果更具趣味性,提升了用户体验。
图9是本公开实施例提供的一种音频数据的处理装置的结构示意图,该处理装置可以被理解为上述终端设备或者上述终端设备中的部分功能模块。如图9所示,该处理装置90包括:
第一获取模块91,用于获取第一音频数据上的第一播放位置,以及用户对第一音效的试听指令。
第一音效添加模块92,用于将所述第一音效添加到所述第一音频数据中的第一音频片段上,生成音效试听数据,并对所述音效试听数据进行播放,其中,所述第一音频片段是指所述第一音频数据中以所述第一播放位置为起始位置的音频片段。
第一接收模块93,用于接收到用户对第二音效的第一添加指令,所述第一添加指令包括所述第二音效在所述第一音频数据中的第一添加长度的信息。
第二音效添加模块94,用于将所述第二音效添加到所述第一音频数据中的第二音频片段上,得到第二音频数据,其中,所述第二音频片段是指以所述第一播放位置为起始位置,长度为所述第一添加长度的音频片段。
在一种实施方式中,所述第一音频数据为视频编辑界面中待编辑视频的音频数据。
在一种实施方式中,所述第一获取模块91,包括:
第一显示单元,用于显示所述视频编辑界面,所述视频编辑界面中包括视频的播放进度控件和所述第一音效的音效控件。
获取单元,用于获取用户通过所述播放进度控件选择得到的所述第一播放位置,以及所述用户通过所述音效控件触发的所述试听指令。
在一种实施方式中,处理装置90还可以包括:
恢复模块,用于在所述音效试听数据播放完毕之后,将所述第一音频数据的播放位置恢复到所述第一播放位置。
在一种实施方式中,所述第一音效添加模块92,包括:
识别单元,用于基于预设的声音识别模型从所述第一音频片段中识别出目标声音。
音效添加单元,用于将所述第一音效添加到所述第一音频片段中的所述目标声音上,生成所述第一音效在所述第一音频片段上的试听数据。
在一种实施方式中,处理装置90还可以包括:
显示模块,用于显示至少一个声音选项。
确定模块,用于将所述用户从所述至少一个声音选项中选择的声音确定为目标声音。
在一种实施方式中,所述目标声音包括如下中的至少一种:
人声、动物声、车辆声、乐器声、背景声、前景声。
在一种实施方式中,所述第二音效添加模块94,用于:将所述第二音效添加到所述第二音频片段中的所述目标声音上。
在一种实施方式中,处理装置90还可以包括:
第二获取模块,用于获取所述第二音频数据上的第二播放位置,以及所述用户对第三音效的第二添加指令,所述第二添加指令中包括所述第三音效在所述第二音频数据上的第二添加长度的信息。
第三音效添加模块,用于将所述第三音效添加到所述第二音频数据中的第三音频片段上,得到第三音频数据,其中所述第三音频片段是指所述第二音频数据中以所述第二播放位置为起始位置,长度为所述第二添加长度的音频片段。
在一种实施方式中,处理装置90还可以包括:
平滑处理模块,用于在所述第二音效的结束位置和所述第二播放位置是所述第三音频数据上的两个连续的播放位置时,对所述第二音效进行淡出处理,对所述第三音效进行淡入处理。
本实施例提供的装置能够执行上述图1-图8中任一实施例的方法,其执行方式和有益效果类似,在这里不再赘述。
本公开实施例还提供一种终端设备,该终端设备包括处理器和存储器,其中,所述存储器中存储有计算机程序,当所述计算机程序被所述处理器执行时可以实现上述图1-图8中任一实施例的方法。
示例的,图10是本公开实施例中的一种终端设备的结构示意图。下面具体参考图10,其示出了适于用来实现本公开实施例中的终端设备1000的结构示意图。本公开实施例中的终端设备1000可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端 (例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图10示出的终端设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图10所示,终端设备1000可以包括处理装置(例如中央处理器、图形处理器等)1001,其可以根据存储在只读存储器(ROM)1002 中的程序或者从存储装置1008加载到随机访问存储器(RAM)1003 中的程序而执行各种适当的动作和处理。在RAM 1003中,还存储有终端设备1000操作所需的各种程序和数据。处理装置1001、ROM 1002 以及RAM 1003通过总线1004彼此相连。输入/输出(I/O)接口1005 也连接至总线1004。
通常,以下装置可以连接至I/O接口1005:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置1006;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置 1007;包括例如磁带、硬盘等的存储装置1008;以及通信装置1009。通信装置1009可以允许终端设备1000与其他设备进行无线或有线通信以交换数据。虽然图10示出了具有各种装置的终端设备1000,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置1009从网络上被下载和安装,或者从存储装置1008被安装,或者从ROM 1002被安装。在该计算机程序被处理装置1001执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP (HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述终端设备中所包含的;也可以是单独存在,而未装配入该终端设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该终端设备执行时,使得该终端设备:获取第一音频数据上的第一播放位置,以及用户对第一音效的试听指令;将第一音效添加到第一音频数据中的第一音频片段上,生成音效试听数据,并对音效试听数据进行播放,其中,第一音频片段是指第一音频数据中以所述第一播放位置为起始位置的音频片段;然后在接收到用户对第二音效的第一添加指令时,将第二音效添加到第一音频数据中的第二音频片段上,得到第二音频数据,其中,第一添加指令包括第二音效在第一音频数据中的第一添加长度的信息,第二音频片段是指第一音频数据中以第一播放位置为起始位置,长度为第一添加长度的音频片段。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上***(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
本公开实施例还提供一种计算机可读存储介质,所述存储介质中存储有计算机程序,当所述计算机程序被处理器执行时可以实现上述图1-图8中任一实施例的方法,其执行方式和有益效果类似,在这里不再赘述。
需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅是本公开的具体实施方式,使本领域技术人员能够理解或实现本公开。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本公开的精神或范围的情况下,在其它实施例中实现。因此,本公开将不会被限制于本文所述的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (11)
1.一种音频数据的处理方法,其特征在于,包括:
获取第一音频数据上的第一播放位置,以及用户对第一音效的试听指令;
将所述第一音效添加到所述第一音频数据中的第一音频片段上,生成音效试听数据,并对所述音效试听数据进行播放,其中,所述第一音频片段是指所述第一音频数据中以所述第一播放位置为起始位置的音频片段;
所述将所述第一音效添加到所述第一音频数据中的第一音频片段上,生成音效试听数据,包括:
基于预设的声音识别模型从所述第一音频片段中识别出目标声音;
将所述第一音效添加到所述第一音频片段中的所述目标声音上,生成所述第一音效在所述第一音频片段上的试听数据;
接收到用户对第二音效的第一添加指令,所述第一添加指令包括所述第二音效在所述第一音频数据中的第一添加长度的信息;
将所述第二音效添加到所述第一音频数据中的第二音频片段上,得到第二音频数据,其中,所述第二音频片段是指以所述第一播放位置为起始位置,长度为所述第一添加长度的音频片段。
2.根据权利要求1所述的方法,其特征在于,所述第一音频数据为视频编辑界面中待编辑视频的音频数据。
3.根据权利要求2所述的方法,其特征在于,所述获取第一音频数据上的第一播放位置,以及用户对第一音效的试听指令,包括:
显示所述视频编辑界面,所述视频编辑界面中包括视频的播放进度控件和所述第一音效的音效控件;
获取用户通过所述播放进度控件选择得到的所述第一播放位置,以及所述用户通过所述音效控件触发的所述试听指令。
4.根据权利要求1-3中任一项所述的方法,其特征在于,所述方法还包括:
在所述音效试听数据播放完毕之后,将所述第一音频数据的播放位置恢复到所述第一播放位置。
5.根据权利要求1所述的方法,其特征在于,所述基于预设的声音识别模型从所述第一音频片段中识别出目标声音之前,所述方法还包括:
显示至少一个声音选项;
将所述用户从所述至少一个声音选项中选择的声音确定为目标声音。
6.根据权利要求1或5所述的方法,其特征在于,所述将所述第二音效添加到所述第一音频数据中的第二音频片段上,包括:
将所述第二音效添加到所述第二音频片段中的所述目标声音上。
7.根据权利要求1所述的方法,其特征在于,所述将所述第二音效添加到所述第一音频数据中的第二音频片段上,得到第二音频数据之后,所述方法还包括:
获取所述第二音频数据上的第二播放位置,以及所述用户对第三音效的第二添加指令,所述第二添加指令中包括所述第三音效在所述第二音频数据上的第二添加长度的信息;
将所述第三音效添加到所述第二音频数据中的第三音频片段上,得到第三音频数据,其中所述第三音频片段是指所述第二音频数据中以所述第二播放位置为起始位置,长度为所述第二添加长度的音频片段。
8.根据权利要求7所述的方法,其特征在于,所述方法还包括:
若所述第二音效的结束位置和所述第二播放位置是所述第三音频数据上的两个连续的播放位置,则对所述第二音效进行淡出处理,对所述第三音效进行淡入处理。
9.一种音频数据的处理装置,其特征在于,包括:
第一获取模块,用于获取第一音频数据上的第一播放位置,以及用户对第一音效的试听指令;
第一音效添加模块,用于将所述第一音效添加到所述第一音频数据中的第一音频片段上,生成音效试听数据,并对所述音效试听数据进行播放,其中,所述第一音频片段是指所述第一音频数据中以所述第一播放位置为起始位置的音频片段;所述将所述第一音效添加到所述第一音频数据中的第一音频片段上,生成音效试听数据,包括:基于预设的声音识别模型从所述第一音频片段中识别出目标声音;将所述第一音效添加到所述第一音频片段中的所述目标声音上,生成所述第一音效在所述第一音频片段上的试听数据;
第一接收模块,用于接收到用户对第二音效的第一添加指令,所述第一添加指令包括所述第二音效在所述第一音频数据中的第一添加长度的信息;
第二音效添加模块,用于将所述第二音效添加到所述第一音频数据中的第二音频片段上,得到第二音频数据,其中,所述第二音频片段是指以所述第一播放位置为起始位置,长度为所述第一添加长度的音频片段。
10.一种终端设备,其特征在于,包括:
存储器和处理器,其中,所述存储器中存储有计算机程序,当所述计算机程序被所述处理器执行时,实现如权利要求1-8中任一项所述的方法。
11.一种计算机可读存储介质,其特征在于,所述存储介质中存储有计算机程序,当所述计算机程序被处理器执行时,实现如权利要求1-8中任一项所述的方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010873112.3A CN112165647B (zh) | 2020-08-26 | 2020-08-26 | 音频数据的处理方法、装置、设备及存储介质 |
PCT/CN2021/114706 WO2022042634A1 (zh) | 2020-08-26 | 2021-08-26 | 音频数据的处理方法、装置、设备及存储介质 |
EP21860468.4A EP4192021A4 (en) | 2020-08-26 | 2021-08-26 | AUDIO DATA PROCESSING METHOD AND DEVICE AS WELL AS DEVICE AND STORAGE MEDIUM |
JP2023513340A JP2023538943A (ja) | 2020-08-26 | 2021-08-26 | オーディオデータの処理方法、装置、機器及び記憶媒体 |
US18/023,286 US20230307004A1 (en) | 2020-08-26 | 2021-08-26 | Audio data processing method and apparatus, and device and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010873112.3A CN112165647B (zh) | 2020-08-26 | 2020-08-26 | 音频数据的处理方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112165647A CN112165647A (zh) | 2021-01-01 |
CN112165647B true CN112165647B (zh) | 2022-06-17 |
Family
ID=73860283
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010873112.3A Active CN112165647B (zh) | 2020-08-26 | 2020-08-26 | 音频数据的处理方法、装置、设备及存储介质 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230307004A1 (zh) |
EP (1) | EP4192021A4 (zh) |
JP (1) | JP2023538943A (zh) |
CN (1) | CN112165647B (zh) |
WO (1) | WO2022042634A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112165647B (zh) * | 2020-08-26 | 2022-06-17 | 北京字节跳动网络技术有限公司 | 音频数据的处理方法、装置、设备及存储介质 |
CN113838451B (zh) * | 2021-08-17 | 2022-09-23 | 北京百度网讯科技有限公司 | 语音处理及模型训练方法、装置、设备和存储介质 |
CN115086708B (zh) * | 2022-06-06 | 2024-03-08 | 北京奇艺世纪科技有限公司 | 一种视频播放方法、装置、电子设备及存储介质 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102724423B (zh) * | 2011-09-30 | 2017-11-10 | 新奥特(北京)视频技术有限公司 | 一种素材分段处理的方法及装置 |
US9728225B2 (en) * | 2013-03-12 | 2017-08-08 | Cyberlink Corp. | Systems and methods for viewing instant updates of an audio waveform with an applied effect |
WO2017013762A1 (ja) * | 2015-07-22 | 2017-01-26 | Pioneer DJ株式会社 | 音処理装置および音処理方法 |
CN106155623B (zh) * | 2016-06-16 | 2017-11-14 | 广东欧珀移动通信有限公司 | 一种音效配置方法、***及相关设备 |
CN106559572B (zh) * | 2016-11-15 | 2020-12-01 | 泾县谷声信息科技有限公司 | 杂音定位方法及装置 |
US10062367B1 (en) * | 2017-07-14 | 2018-08-28 | Music Tribe Global Brands Ltd. | Vocal effects control system |
CN108965757B (zh) * | 2018-08-02 | 2021-04-06 | 广州酷狗计算机科技有限公司 | 视频录制方法、装置、终端及存储介质 |
CN109346111B (zh) * | 2018-10-11 | 2020-09-04 | 广州酷狗计算机科技有限公司 | 数据处理方法、装置、终端及存储介质 |
CN109754825B (zh) * | 2018-12-26 | 2021-02-19 | 广州方硅信息技术有限公司 | 一种音频处理方法、装置、设备及计算机可读存储介质 |
EP3915005A4 (en) * | 2019-01-25 | 2022-08-31 | Microsoft Technology Licensing, LLC | AUTOMATICALLY ADD SOUND EFFECTS IN AUDIO FILES |
CN110377212B (zh) * | 2019-06-28 | 2021-03-16 | 上海元笛软件有限公司 | 通过音频触发显示的方法、装置、计算机设备和存储介质 |
CN111142838B (zh) * | 2019-12-30 | 2023-08-11 | 广州酷狗计算机科技有限公司 | 音频播放方法、装置、计算机设备及存储介质 |
CN112165647B (zh) * | 2020-08-26 | 2022-06-17 | 北京字节跳动网络技术有限公司 | 音频数据的处理方法、装置、设备及存储介质 |
-
2020
- 2020-08-26 CN CN202010873112.3A patent/CN112165647B/zh active Active
-
2021
- 2021-08-26 JP JP2023513340A patent/JP2023538943A/ja active Pending
- 2021-08-26 EP EP21860468.4A patent/EP4192021A4/en active Pending
- 2021-08-26 US US18/023,286 patent/US20230307004A1/en active Pending
- 2021-08-26 WO PCT/CN2021/114706 patent/WO2022042634A1/zh active Application Filing
Also Published As
Publication number | Publication date |
---|---|
US20230307004A1 (en) | 2023-09-28 |
CN112165647A (zh) | 2021-01-01 |
EP4192021A1 (en) | 2023-06-07 |
JP2023538943A (ja) | 2023-09-12 |
WO2022042634A1 (zh) | 2022-03-03 |
EP4192021A4 (en) | 2024-01-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110677711B (zh) | 视频配乐方法、装置、电子设备及计算机可读介质 | |
CN112165647B (zh) | 音频数据的处理方法、装置、设备及存储介质 | |
US11206448B2 (en) | Method and apparatus for selecting background music for video shooting, terminal device and medium | |
CN112822563A (zh) | 生成视频的方法、装置、电子设备和计算机可读介质 | |
JP6936298B2 (ja) | 三次元仮想ポートレートの口形の変化を制御する方法および装置 | |
CN107463700B (zh) | 用于获取信息的方法、装置及设备 | |
CN112153460B (zh) | 一种视频的配乐方法、装置、电子设备和存储介质 | |
CN110070896B (zh) | 图像处理方法、装置、硬件装置 | |
CN111447489A (zh) | 视频处理方法、装置、可读介质及电子设备 | |
KR20160106075A (ko) | 오디오 스트림에서 음악 작품을 식별하기 위한 방법 및 디바이스 | |
US11710510B2 (en) | Video generation method and apparatus, electronic device, and computer readable medium | |
CN111970571A (zh) | 视频制作方法、装置、设备及存储介质 | |
CN112929746A (zh) | 视频生成方法和装置、存储介质和电子设备 | |
CN110610720B (zh) | 一种数据处理方法、装置和用于数据处理的装置 | |
CN110413834B (zh) | 语音评论修饰方法、***、介质和电子设备 | |
CN111883139A (zh) | 用于筛选目标语音的方法、装置、设备和介质 | |
CN110659387A (zh) | 用于提供视频的方法和设备 | |
CN113207025B (zh) | 视频处理方法、装置、电子设备和存储介质 | |
CN114501064A (zh) | 一种视频生成方法、装置、设备、介质及产品 | |
CN112380362A (zh) | 基于用户交互的音乐播放方法、装置、设备及存储介质 | |
CN112309387A (zh) | 用于处理信息的方法和装置 | |
CN113542785B (zh) | 应用于直播的音频的输入输出的切换方法、直播设备 | |
CN115269920A (zh) | 交互方法、装置、电子设备和存储介质 | |
CN116800988A (zh) | 视频生成方法、装置、设备、存储介质和程序产品 | |
JP2024507734A (ja) | 音声類似度決定方法及び装置、プログラム製品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |