CN111243595A - 信息处理方法和装置 - Google Patents

信息处理方法和装置 Download PDF

Info

Publication number
CN111243595A
CN111243595A CN201911424247.5A CN201911424247A CN111243595A CN 111243595 A CN111243595 A CN 111243595A CN 201911424247 A CN201911424247 A CN 201911424247A CN 111243595 A CN111243595 A CN 111243595A
Authority
CN
China
Prior art keywords
audio
information
segments
determining
segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911424247.5A
Other languages
English (en)
Other versions
CN111243595B (zh
Inventor
资礼波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JD Digital Technology Holdings Co Ltd
Original Assignee
JD Digital Technology Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JD Digital Technology Holdings Co Ltd filed Critical JD Digital Technology Holdings Co Ltd
Priority to CN201911424247.5A priority Critical patent/CN111243595B/zh
Publication of CN111243595A publication Critical patent/CN111243595A/zh
Application granted granted Critical
Publication of CN111243595B publication Critical patent/CN111243595B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开提供了一种信息处理方法,包括:获取音频信息,确定音频信息中的人声部分和非人声部分,基于音频信息的人声部分和非人声部分,将音频信息分为多个音频片段,其中,多个音频片段中的每个音频片段包含一个用户的语音信息,将多个音频片段转换为多个文本片段,以及基于多个文本片段中的特定文本片段的内容和与特定文本片段对应的音频片段的声音属性,确定与特定文本片段对应的用户身份。

Description

信息处理方法和装置
技术领域
本公开涉及计算机技术领域,更具体地,涉及一种信息处理方法、装置、计算机***和计算机可读存储介质。
背景技术
随着企业对客服服务质量要求的提高,对客服录音进行质检的需求越来越大。传统的质检方式是通过人工对客服录音进行抽查、听取和评估,这种质检方式不仅耗费大量的人力、质检效率低,抽查的覆盖率也低,质检效果不佳。
目前,在相关技术中,可以通过智能质检的方式提高质检效率。例如,可以通过语音识别技术进行语音质检。例如,可以先将语音数据转换为文本数据,然后对文本数据进行分析。
在实现本发明构思的过程中,发明人发现相关技术中至少存在如下问题。即,相关技术在将语音数据转换为文本数据时,无法准确区分语音中的对话角色,导致智能质检的效率和准确率低。
发明内容
有鉴于此,本公开提供了一种信息处理方法和装置。
本公开的一个方面提供了一种信息处理方法,包括:获取音频信息,确定所述音频信息中的人声部分和非人声部分,基于所述音频信息的人声部分和非人声部分,从所述音频信息中确定多个音频片段,其中,所述多个音频片段中的每个音频片段包含一个用户的语音信息,将所述多个音频片段转换为多个文本片段;以及基于所述多个文本片段中的特定文本片段的内容和与所述特定文本片段对应的音频片段的声音属性,确定与所述特定文本片段对应的用户身份。
根据本公开的实施例,所述基于所述音频信息的人声部分和非人声部分,从所述音频信息中确定多个音频片段,包括:对所述音频信息中的人声部分和/或非人声部分进行标注,以及将标注后的音频信息输入至经训练的神经网络,得到所述多个音频片段。
根据本公开的实施例,所述基于所述音频信息的人声部分和非人声部分,从所述音频信息中确定多个音频片段,包括:基于所述音频信息的人声部分和非人声部分,从所述音频信息中确定多个第一音频片段,确定所述多个第一音频片段中包含有多个用户语音信息的音频片段为第二音频片段,以及基于所述第二音频片段中的多个用户语音信息的过渡位置,从所述第二音频片段中确定多个第三音频片段,其中,由所述第一音频片段和所述第三音频片段构成所述包含一个用户的语音信息的音频片段。
根据本公开的实施例,所述多个用户语音信息的过渡位置,包括:所述多个用户语音信息的重叠位置。
根据本公开的实施例,所述确定所述音频信息中的人声部分和非人声部分,包括:通过基于时序连接分类器的语音端点检测方法,确定所述音频信息中的人声部分和非人声部分。
根据本公开的实施例,所述将所述多个音频片段转换为多个文本片段,包括:通过基于时序连接分类器的端到端的语音识别方法,将所述多个音频片段转换为多个文本片段。
根据本公开的实施例,所述声音属性包括声纹特征。
本公开的另一个方面提供了一种信息处理装置,包括音频获取模块、第一确定模块、音频分割模块、音频转换模块、第二确定模块。其中,音频获取模块用于获取音频信息。第一确定模块用于确定所述音频信息中的人声部分和非人声部分。音频分割模块用于基于所述音频信息的人声部分和非人声部分,从所述音频信息中确定多个音频片段,其中,所述多个音频片段中的每个音频片段包含一个用户的语音信息。音频转换模块用于将所述多个音频片段转换为多个文本片段。第二确定模块用于基于所述多个文本片段中的特定文本片段的内容和与所述特定文本片段对应的音频片段的声音属性,确定与所述特定文本片段对应的用户身份。
根据本公开的实施例,所述基于所述音频信息的人声部分和非人声部分,从所述音频信息中确定多个音频片段,包括:对所述音频信息中的人声部分和/或非人声部分进行标注,以及将标注后的音频信息输入至经训练的神经网络,得到所述多个音频片段。
根据本公开的实施例,所述基于所述音频信息的人声部分和非人声部分,从所述音频信息中确定多个音频片段,包括:基于所述音频信息的人声部分和非人声部分,从所述音频信息中确定多个第一音频片段,确定所述多个第一音频片段中包含有多个用户语音信息的音频片段为第二音频片段,以及基于所述第二音频片段中的多个用户语音信息的过渡位置,从所述第二音频片段中确定多个第三音频片段,其中,由所述第一音频片段和所述第三音频片段构成所述包含一个用户的语音信息的音频片段。
根据本公开的实施例,所述多个用户语音信息的过渡位置,包括:所述多个用户语音信息的重叠位置。
根据本公开的实施例,所述确定所述音频信息中的人声部分和非人声部分,包括:通过基于时序连接分类器的语音端点检测方法,确定所述音频信息中的人声部分和非人声部分。
根据本公开的实施例,所述将所述多个音频片段转换为多个文本片段,包括:通过基于时序连接分类器的端到端的语音识别方法,将所述多个音频片段转换为多个文本片段。
根据本公开的实施例,所述声音属性包括声纹特征。
本公开的另一方面提供了一种计算机***,包括:一个或多个处理器,计算机可读存储介质,用于存储一个或多个程序,其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如上所述的方法。
本公开的另一方面提供了一种非易失性存储介质,存储有计算机可执行指令,所述指令在被执行时用于实现如上所述的方法。
本公开的另一方面提供了一种计算机程序,所述计算机程序包括计算机可执行指令,所述指令在被执行时用于实现如上所述的方法。
根据本公开的实施例,可以至少部分地解决相关技术中由于无法准确区分角色,导致例如智能质检等需要区分对话角色的应用场景中识别效率和准确率低的问题,并因此可以实现准确区分对话角色,提高智能质检效率和准确率的技术效果。
附图说明
通过以下参照附图对本公开实施例的描述,本公开的上述以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了根据本公开实施例的可以应用信息处理方法和装置的示例性***架构;
图2示意性示出了根据本公开实施例的信息处理方法的流程图;
图3示意性示出了根据本公开实施例的音频信息切分示意图;
图4示意性示出了根据本公开实施例的信息处理框架的示意图;
图5示意性示出了根据本公开实施例的信息处理装置的框图;以及
图6示意性示出了根据本公开实施例的适于实现信息处理方法的计算机***的方框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的***”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的***等)。在使用类似于“A、B或C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B或C中至少一个的***”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的***等)。本领域技术人员还应理解,实质上任意表示两个或更多可选项目的转折连词和/或短语,无论是在说明书、权利要求书还是附图中,都应被理解为给出了包括这些项目之一、这些项目任一方、或两个项目的可能性。例如,短语“A或B”应当被理解为包括“A”或“B”、或“A和B”的可能性。
本公开的实施例提供了一种信息处理方法,包括:获取音频信息,确定音频信息中的人声部分和非人声部分,基于音频信息的人声部分和非人声部分,从音频信息中确定多个音频片段,其中,多个音频片段中的每个音频片段包含一个用户的语音信息,将多个音频片段转换为多个文本片段,以及基于多个文本片段中的特定文本片段的内容和与特定文本片段对应的音频片段的声音属性,确定与该特定文本片段对应的用户身份。
图1示意性示出了根据本公开实施例的可以应用信息处理方法和装置的示例性***架构100。
如图1所示,根据该实施例的***架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。
终端设备101、102、103可以是具有显示屏并且支持通话的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。例如,在客服场景中,客服人员可以通过终端设备101与客户通话,终端设备101可以记录通话的音频信息。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。例如,在客服质检场景中,服务器105可以获取终端设备记录的通话音频信息,并对该音频信息进行处理,以便对此次通话进行质检。
需要说明的是,本公开实施例所提供的信息处理方法一般可以由服务器105执行。相应地,本公开实施例所提供的信息处理装置一般可以设置于服务器105中。本公开实施例所提供的信息处理方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的信息处理装置也可以设置于不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
图2示意性示出了根据本公开实施例的信息处理方法的流程图。
如图2所示,该方法包括操作S201~S205。
在操作S201,获取音频信息。
根据本公开实施例,音频信息中可以包含一个人的语音信息,也可以包含多个人的语音信息。例如,在客服场景中,音频信息可以包含客服人员和客户之间的对话信息。例如,可以对客服人员和客户的对话进行录音。
在操作S202,确定音频信息中的人声部分和非人声部分。
根据本公开实施例,可以通过基于时序连接分类器的语音端点检测(Connectionist TemporalClassification-Voice Activity Detection)方法来确定音频信息中的人声部分和非人声部分。
在本公开实施例中,CTC(ConnectionistTemporal Classification)是一种用于端到端语音识别模型的损失函数,可以用来解决输入序列和输出序列不一一对应的问题。VAD(Voice Activity Detection)可以判断音频是否具有有效的人声。可以理解,在语音识别过程中通常关心有人声内容的部分,静音或者环境噪音通常不需要进行转译。
本公开实施例的基于时序连接分类器的语音端点检测方法可以对音频信息进行处理,并输出音频信息的每一帧音频信号在建模单元和空白单元上的概率分布。其中,建模单元可以是音素、也可以是音节,还可以是汉字字形。空白单元可以表示概率分布指示处于空白单元上的帧不对应任何建模单元,即,不对应任何人声,可以将该帧确定为非人声。可以理解,通过基于时序连接分类器的语音端点检测对音频信息的处理,得到的分类更加准确,从而能更好的区分音频信息中的人声部分和非人声部分,提高准确率。
在操作S203,基于音频信息的人声部分和非人声部分,从音频信息中确定多个音频片段,其中,多个音频片段中的每个音频片段包含一个用户的语音信息。
根据本公开实施例,可以基于音频信息的人声部分和非人声部分,从音频信息中确定多个第一音频片段,确定多个第一音频片段中包含有多个用户语音信息的音频片段为第二音频片段,以及基于第二音频片段中的多个用户语音信息的过渡位置,从第二音频片段中确定多个第三音频片段,其中,由第一音频片段和第三音频片段构成包含一个用户的语音信息的音频片段。
例如,如图3所示的示例,音频信息300可以包括人声部分和非人声部分。可以根据人声部分和非人声部分将音频信息300分成四个第一音频片段310、320、330和340。确定第一音频片段310、320、330和340中包含有多个用户语音信息的音频片段320和330为第二音频片段。基于第二音频片段320的用户语音信息的过渡位置,将第二音频片段320分成两个第三音频片段321和322,基于第二音频片段330的用户语音信息的过渡位置,将第二音频片段330分成三个第三音频片段331、332和333。其中,上述仅包含一个用户的语音信息的音频片段可以由310、321、322、331、332、333和340构成。
根据本公开实施例,多个用户语音信息的过渡位置例如可以是多个用户语音信息的重叠位置。
可以理解,本公开实施例可以通过对话中角色转换时的沉默时间(非人声部分)和对话中角色转换时的重叠时间将音频信息分为多个音频片段,以保证每个音频片段中仅包含一个用户的语音信息。
在本公开实施例中,可以通过一个0.2秒的滑动窗口,对第一音频片段进行扫描,然后基于每个窗口对第一音频片段进行一次二分类,即该窗口内包含多人语音信息或者仅包含一人语音信息,从而可以确定包含多人语音信息的第二音频片段,并且确定多人语音信息的过渡位置。
根据本公开实施例,可以对音频信息中的人声部分和/或非人声部分进行标注,将标注后的音频信息输入至经训练的神经网络,得到多个音频片段。
例如,可以对音频信息的每一帧标注人声或非人声,然后将标注过的音频信息输入至经训练的神经网络,神经网络可以输出多个音频片段。可以理解,神经网络可以将音频信息切分,输出多个音频片段,也可以在音频信息中进行标注切分位置,以让后续处理可以识别音频片段。
在操作S204,将多个音频片段转换为多个文本片段。
根据本公开实施例,可以通过基于时序连接分类器的端到端的语音识别(Connectionist Temporal Classification-Automatic Speech Recognition)方法,将多个音频片段转换为多个文本片段。
在本公开实施例中,端对端可以是从语音特征序列直接到文本序列的转换。相反,传统的语音识别输出的是状态序列,需要解码才能得到文本序列,而不能如端对端方式直接得到文本序列。
可以理解,端对端的语音识别方法可以自动学习到语音特征与文本的对齐关系,而无需人工设定先验的假设,可以简化语音识别的流程,提高语音识别的效率。
在操作S205,基于多个文本片段中的特定文本片段的内容和与特定文本片段对应的音频片段的声音属性,确定与该特定文本片段对应的用户身份。
根据本公开实施例,可以确定多个文本片段中的每个文本片段所对应的用户身份。例如,可以根据与文本片段对应的音频片段的声纹特征确定该文本片段所属的用户,然后对文本片段的内容进行语义分析,确定该用户的身份。例如,可以通过声纹特征确定文本片段1、3、5属于用户A,文本片段2、4、6属于用户B。然后基于文本片段1、3、5的语义特征,确定用户A为客服人员,基于文本片段2、4、6的语义特征,确定用户B为客户。
在本公开实施例中,可以基于I-vector Automatic Speaker Detection方法进行说话人的识别。I-vector特征是人的声纹特征,用一个固定长度的向量代表说话人的声音特征,I-vector可以通过传统的GMM-UBM(Gaussian Mixture Model-UniversalBackground Model)模型训练得到,然后可以将每个音频片段计算一个I-vector,然后进行无监督聚类。例如,说话人数为2人,则聚为两类。然后再基于语义分析确定该2人是什么身份。
本公开实施例可以将音频信息转化为文本记录,并且能够准确区分音频信息中的各内容所对应的对话角色,方便在质检过程中直接取用该文本记录进行处理,可以提高智能质检效率和准确率。
图4示意性示出了根据本公开实施例的信息处理框架的示意图。
如图4所示,该框架可以包括CTVAD单元、CTSCD单元、CTASR单元和IVASD单元。
根据本公开实施例,可以通过统一的数据格式连接CTVAD单元、CTSCD单元、CTASR单元和IVASD单元。例如,可以通过json数据格式实现单元间的数据流动。
CTVAD单元可以是基于时序连接分类器的语音端点检测(ConnectionistTemporal classification-Voice Activity Detection)单元,该单元对该音频信息进行处理,输出音频信息的每一帧音频信号在建模单元和空白单元上的概率分布。实现确定音频信息中的人声部分和非人声部分的目的。
CTSCD单元可以是基于时序连接分类器的说话人转化检测(ConnectionistTemporal classification-Speaker Change Detection)单元。该单元可以对音频数据进行处理,实现将音频信息划分多个音频片段的目的。
CTASR单元可以是基于时序连接分类器的的端到端的语音识别(ConnectionistTemporal classification-Automatic Speech Recognition)单元。该单元可以将音频片段转换为文本片段。
IVASD单元可以是基于I-vector的说话人识别(I-Vector AutomaticSpeakerDetection)单元。该单元可以基于与文本片段对应的音频片段的声纹特征和文本片段的内容确定用户身份。
本公开实施例利用包括如图4所述的单元化语音数据处理模式,可以通过统一的数据格式连接CTVAD单元、CTSCD单元、CTASR单元和IVASD单元。例如,可以通过json数据格式实现单元间的数据流动,由此可以将语音数据的处理通过不同单元的相互组合来完成,从而实现快速、高效的数据处理流程以及可扩展的数据处理方式。例如,可以灵活地外接其他处理软件或者处理流程。
图5示意性示出了根据本公开实施例的信息处理装置500的框图。
如图5所示,装置500包括包括音频获取模块510、第一确定模块520、音频分割模块530、音频转换模块540和第二确定模块550。
音频获取模块510用于获取音频信息。根据本公开实施例,音频获取模块510例如可以执行参考图2描述的操作S201的方法,在此不再赘述。
第一确定模块520用于确定音频信息中的人声部分和非人声部分。根据本公开实施例,第一确定模块520例如可以执行参考图2描述的操作S202的方法,在此不再赘述。
音频分割模块530用于基于音频信息的人声部分和非人声部分,从音频信息中确定多个音频片段,其中,多个音频片段中的每个音频片段包含一个用户的语音信息。根据本公开实施例,音频分割模块530例如可以执行参考图2描述的操作S203的方法,在此不再赘述。
音频转换模块540用于将多个音频片段转换为多个文本片段。根据本公开实施例,音频转换模块540例如可以执行参考图2描述的操作S204的方法,在此不再赘述。
第二确定模块550用于基于多个文本片段中的特定文本片段的内容和与特定文本片段对应的音频片段的声音属性,确定与特定文本片段对应的用户身份。根据本公开实施例,第二确定模块550例如可以执行参考图2描述的操作S205的方法,在此不再赘述。
根据本公开实施例,基于音频信息的人声部分和非人声部分,从音频信息中确定多个音频片段,可以包括:对音频信息中的人声部分和/或非人声部分进行标注,以及将标注后的音频信息输入至经训练的神经网络,得到多个音频片段。
根据本公开实施例,基于音频信息的人声部分和非人声部分,从音频信息中确定多个音频片段,可以包括:基于音频信息的人声部分和非人声部分,从音频信息中确定多个第一音频片段,确定多个第一音频片段中包含有多个用户语音信息的音频片段为第二音频片段,以及基于第二音频片段中的多个用户语音信息的过渡位置,从第二音频片段中确定多个第三音频片段,其中,由第一音频片段和第三音频片段构成包含一个用户的语音信息的音频片段。
根据本公开实施例,多个用户语音信息的过渡位置,可以包括:多个用户语音信息的重叠位置。
根据本公开实施例,确定音频信息中的人声部分和非人声部分,可以包括:通过基于时序连接分类器的语音端点检测方法,确定音频信息中的人声部分和非人声部分。
根据本公开实施例,将多个音频片段转换为多个文本片段,可以包括:通过基于时序连接分类器的端到端的语音识别方法,将多个音频片段转换为多个文本片段。
根据本公开实施例,声音属性包括声纹特征。
需要说明的是,装置部分实施例中各模块/单元/子单元等的实施方式、解决的技术问题、实现的功能、以及达到的技术效果分别与方法部分实施例中各对应的步骤的实施方式、解决的技术问题、实现的功能、以及达到的技术效果相同或类似,在此不再赘述。
根据本公开的实施例的模块、子模块、单元、子单元中的任意多个、或其中任意多个的至少部分功能可以在一个模块中实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以被拆分成多个模块来实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上***、基板上的***、封装上的***、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式的硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,根据本公开实施例的模块、子模块、单元、子单元中的一个或多个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
图6示意性示出了根据本公开实施例的适于实现信息处理方法的计算机***的方框图。图6示出的计算机***仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图6所示,根据本公开实施例的计算机***600包括处理器601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。处理器601例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC)),等等。处理器601还可以包括用于缓存用途的板载存储器。处理器601可以包括用于执行参考图2描述的根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 603中,存储有***600操作所需的各种程序和数据。处理器601、ROM 602以及RAM 603通过总线604彼此相连。处理器601通过执行ROM 602和/或RAM 603中的程序来执行以上参考图2描述的各种操作。需要注意,所述程序也可以存储在除ROM 602和RAM 603以外的一个或多个存储器中。处理器601也可以通过执行存储在所述一个或多个存储器中的程序来执行以上参考图2描述的各种操作。
根据本公开的实施例,***600还可以包括输入/输出(I/O)接口605,输入/输出(I/O)接口605也连接至总线604。***600还可以包括连接至I/O接口605的以下部件中的一项或多项:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
根据本公开的实施例,上文参考流程图描述的方法可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被处理器601执行时,执行本公开实施例的***中限定的上述功能。根据本公开的实施例,上文描述的***、设备、装置、模块、单元等可以通过计算机程序模块来实现。
需要说明的是,本公开所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。根据本公开的实施例,计算机可读介质可以包括上文描述的ROM602和/或RAM 603和/或ROM 602和RAM 603以外的一个或多个存储器。
附图中的流程图和框图,图示了按照本公开各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
作为另一方面,本公开还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的设备中所包含的;也可以是单独存在,而未装配入该设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该设备执行:获取音频信息,确定音频信息中的人声部分和非人声部分,基于音频信息的人声部分和非人声部分,从音频信息中确定多个音频片段,其中,多个音频片段中的每个音频片段包含一个用户的语音信息,将多个音频片段转换为多个文本片段,以及基于多个文本片段中的特定文本片段的内容和与特定文本片段对应的音频片段的声音属性,确定与特定文本片段对应的用户身份。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。

Claims (10)

1.一种信息处理方法,包括:
获取音频信息;
确定所述音频信息中的人声部分和非人声部分;
基于所述音频信息的人声部分和非人声部分,从所述音频信息中确定多个音频片段,其中,所述多个音频片段中的每个音频片段包含一个用户的语音信息;
将所述多个音频片段转换为多个文本片段;以及
基于所述多个文本片段中的特定文本片段的内容和与所述特定文本片段对应的音频片段的声音属性,确定与所述特定文本片段对应的用户身份。
2.根据权利要求1所述的方法,其中,所述基于所述音频信息的人声部分和非人声部分,从所述音频信息中确定多个音频片段,包括:
对所述音频信息中的人声部分和/或非人声部分进行标注;以及
将标注后的音频信息输入至经训练的神经网络,得到所述多个音频片段。
3.根据权利要求1所述的方法,其中,所述基于所述音频信息的人声部分和非人声部分,从所述音频信息中确定多个音频片段,包括:
基于所述音频信息的人声部分和非人声部分,从所述音频信息中确定多个第一音频片段;
确定所述多个第一音频片段中包含有多个用户语音信息的音频片段为第二音频片段;以及
基于所述第二音频片段中的多个用户语音信息的过渡位置,从所述第二音频片段中确定多个第三音频片段,其中,由所述第一音频片段和所述第三音频片段构成所述包含一个用户的语音信息的音频片段。
4.根据权利要求3所述的方法,其中,所述多个用户语音信息的过渡位置,包括:所述多个用户语音信息的重叠位置。
5.根据权利要求1所述的方法,其中,所述确定所述音频信息中的人声部分和非人声部分,包括:
通过基于时序连接分类器的语音端点检测方法,确定所述音频信息中的人声部分和非人声部分。
6.根据权利要求1所述的方法,其中,所述将所述多个音频片段转换为多个文本片段,包括:
通过基于时序连接分类器的端到端的语音识别方法,将所述多个音频片段转换为多个文本片段。
7.根据权利要求1所述的方法,其中,所述声音属性包括声纹特征。
8.一种信息处理装置,包括:
音频获取模块,用于获取音频信息;
第一确定模块,用于确定所述音频信息中的人声部分和非人声部分;
音频分割模块,用于基于所述音频信息的人声部分和非人声部分,从所述音频信息中确定多个音频片段,其中,所述多个音频片段中的每个音频片段包含一个用户的语音信息;
音频转换模块,用于将所述多个音频片段转换为多个文本片段;以及
第二确定模块,用于基于所述多个文本片段中的特定文本片段的内容和与所述特定文本片段对应的音频片段的声音属性,确定与所述特定文本片段对应的用户身份。
9.一种计算机***,包括:
一个或多个处理器;
计算机可读存储介质,用于存储一个或多个程序,
其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现权利要求1至7中任一项所述的方法。
10.一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器实现权利要求1至7中任一项所述的方法。
CN201911424247.5A 2019-12-31 2019-12-31 信息处理方法和装置 Active CN111243595B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911424247.5A CN111243595B (zh) 2019-12-31 2019-12-31 信息处理方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911424247.5A CN111243595B (zh) 2019-12-31 2019-12-31 信息处理方法和装置

Publications (2)

Publication Number Publication Date
CN111243595A true CN111243595A (zh) 2020-06-05
CN111243595B CN111243595B (zh) 2022-12-27

Family

ID=70872376

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911424247.5A Active CN111243595B (zh) 2019-12-31 2019-12-31 信息处理方法和装置

Country Status (1)

Country Link
CN (1) CN111243595B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111986655A (zh) * 2020-08-18 2020-11-24 北京字节跳动网络技术有限公司 音频内容识别方法、装置、设备和计算机可读介质
CN113539269A (zh) * 2021-07-20 2021-10-22 上海明略人工智能(集团)有限公司 音频信息处理方法、***和计算机可读存储介质
CN113572908A (zh) * 2021-06-16 2021-10-29 云茂互联智能科技(厦门)有限公司 一种VoIP通话中降噪的方法、装置及***
WO2022165256A1 (en) * 2021-01-29 2022-08-04 Nvidia Corporation Speaker adaptive end of speech detection for conversational ai applications

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050171768A1 (en) * 2004-02-02 2005-08-04 Applied Voice & Speech Technologies, Inc. Detection of voice inactivity within a sound stream
US20140142944A1 (en) * 2012-11-21 2014-05-22 Verint Systems Ltd. Diarization Using Acoustic Labeling
CN108564952A (zh) * 2018-03-12 2018-09-21 新华智云科技有限公司 语音角色分离的方法和设备
CN110136727A (zh) * 2019-04-16 2019-08-16 平安科技(深圳)有限公司 基于说话内容的说话者身份识别方法、装置及存储介质
CN110265032A (zh) * 2019-06-05 2019-09-20 平安科技(深圳)有限公司 会议数据分析处理方法、装置、计算机设备和存储介质
CN110299133A (zh) * 2019-07-03 2019-10-01 四川大学 基于关键字判定非法广播的方法
CN110335621A (zh) * 2019-05-28 2019-10-15 深圳追一科技有限公司 音频处理的方法、***及相关设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050171768A1 (en) * 2004-02-02 2005-08-04 Applied Voice & Speech Technologies, Inc. Detection of voice inactivity within a sound stream
US20140142944A1 (en) * 2012-11-21 2014-05-22 Verint Systems Ltd. Diarization Using Acoustic Labeling
CN108564952A (zh) * 2018-03-12 2018-09-21 新华智云科技有限公司 语音角色分离的方法和设备
CN110136727A (zh) * 2019-04-16 2019-08-16 平安科技(深圳)有限公司 基于说话内容的说话者身份识别方法、装置及存储介质
CN110335621A (zh) * 2019-05-28 2019-10-15 深圳追一科技有限公司 音频处理的方法、***及相关设备
CN110265032A (zh) * 2019-06-05 2019-09-20 平安科技(深圳)有限公司 会议数据分析处理方法、装置、计算机设备和存储介质
CN110299133A (zh) * 2019-07-03 2019-10-01 四川大学 基于关键字判定非法广播的方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王梦来 等: "基于CNN的监控视频事件检测", 《自动化学报》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111986655A (zh) * 2020-08-18 2020-11-24 北京字节跳动网络技术有限公司 音频内容识别方法、装置、设备和计算机可读介质
CN111986655B (zh) * 2020-08-18 2022-04-01 北京字节跳动网络技术有限公司 音频内容识别方法、装置、设备和计算机可读介质
US11783808B2 (en) 2020-08-18 2023-10-10 Beijing Bytedance Network Technology Co., Ltd. Audio content recognition method and apparatus, and device and computer-readable medium
WO2022165256A1 (en) * 2021-01-29 2022-08-04 Nvidia Corporation Speaker adaptive end of speech detection for conversational ai applications
US11817117B2 (en) 2021-01-29 2023-11-14 Nvidia Corporation Speaker adaptive end of speech detection for conversational AI applications
CN113572908A (zh) * 2021-06-16 2021-10-29 云茂互联智能科技(厦门)有限公司 一种VoIP通话中降噪的方法、装置及***
CN113539269A (zh) * 2021-07-20 2021-10-22 上海明略人工智能(集团)有限公司 音频信息处理方法、***和计算机可读存储介质

Also Published As

Publication number Publication date
CN111243595B (zh) 2022-12-27

Similar Documents

Publication Publication Date Title
CN111243595B (zh) 信息处理方法和装置
CN107767869B (zh) 用于提供语音服务的方法和装置
CN110349564B (zh) 一种跨语言语音识别方法和装置
CN108388638B (zh) 语义解析方法、装置、设备及存储介质
US20240021202A1 (en) Method and apparatus for recognizing voice, electronic device and medium
CN109410986B (zh) 一种情绪识别方法、装置及存储介质
CN108268450B (zh) 用于生成信息的方法和装置
CN109920431B (zh) 用于输出信息的方法和装置
CN112966082A (zh) 音频质检方法、装置、设备以及存储介质
CN113139816B (zh) 信息处理方法、装置、电子设备和存储介质
CN108877779B (zh) 用于检测语音尾点的方法和装置
CN107680584B (zh) 用于切分音频的方法和装置
CN114171063A (zh) 一种实时话务客户情绪分析辅助方法及***
CN107895573B (zh) 用于识别信息的方法及装置
CN112669850A (zh) 语音质量检测方法、装置、计算机设备及存储介质
CN108664610B (zh) 用于处理数据的方法和装置
CN115831125A (zh) 语音识别方法、装置、设备、存储介质及产品
US20240096347A1 (en) Method and apparatus for determining speech similarity, and program product
CN112837672A (zh) 对话归属的确定方法、装置、电子设备及存储介质
CN113051381B (zh) 信息质检方法、装置、计算机***和计算机可读存储介质
CN113744712B (zh) 智能外呼语音拼接方法、装置、设备、介质和程序产品
CN114155845A (zh) 服务确定方法、装置、电子设备及存储介质
CN114297380A (zh) 一种数据处理方法、装置、设备及存储介质
CN111899718A (zh) 用于识别合成语音的方法、装置、设备和介质
CN112163078A (zh) 智能应答方法、装置、服务器及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: Room 221, 2 / F, block C, 18 Kechuang 11th Street, Daxing District, Beijing, 100176

Applicant after: Jingdong Digital Technology Holding Co.,Ltd.

Address before: Room 221, 2 / F, block C, 18 Kechuang 11th Street, Daxing District, Beijing, 100176

Applicant before: JINGDONG DIGITAL TECHNOLOGY HOLDINGS Co.,Ltd.

Address after: Room 221, 2 / F, block C, 18 Kechuang 11th Street, Daxing District, Beijing, 100176

Applicant after: Jingdong Technology Holding Co.,Ltd.

Address before: Room 221, 2 / F, block C, 18 Kechuang 11th Street, Daxing District, Beijing, 100176

Applicant before: Jingdong Digital Technology Holding Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant