CN109637536B - 一种自动化识别语义准确性的方法及装置 - Google Patents

一种自动化识别语义准确性的方法及装置 Download PDF

Info

Publication number
CN109637536B
CN109637536B CN201811611680.5A CN201811611680A CN109637536B CN 109637536 B CN109637536 B CN 109637536B CN 201811611680 A CN201811611680 A CN 201811611680A CN 109637536 B CN109637536 B CN 109637536B
Authority
CN
China
Prior art keywords
corpus
semantic
accuracy
voice
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811611680.5A
Other languages
English (en)
Other versions
CN109637536A (zh
Inventor
林婷
吴有宝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sipic Technology Co Ltd
Original Assignee
AI Speech Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AI Speech Ltd filed Critical AI Speech Ltd
Priority to CN201811611680.5A priority Critical patent/CN109637536B/zh
Publication of CN109637536A publication Critical patent/CN109637536A/zh
Application granted granted Critical
Publication of CN109637536B publication Critical patent/CN109637536B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/69Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for evaluating synthetic or decoded voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开一种自动化识别语义准确性的方法,包括如下步骤:获取语音指令;对语音指令进行识别和解析,获取语义解析结果;对语义解析结果进行检测,确定语义解析结果的准确性;根据对语义解析结果的准确性输出检测结果。本发明还公开了一种自动化识别语义准确性的装置。本发明公开的方法和装置可以用于批量识别语音信息,并输出对应的正确语义内容,并且只需简单的一键操作,即可一目了然地看到语音信息中语料所对应的领域、slot、控制值等,由此可高效统计语义识别的正确率,并分析语义识别的性能,提高了语音集成客户端的工作效率和适配的准确率。

Description

一种自动化识别语义准确性的方法及装置
技术领域
本发明涉及语音处理技术领域,特别是一种自动化识别语义准确性的方法及装置。
背景技术
语音识别是指一种从语音波形中识别出对应的文字内容的技术,是人工智能领域的重要技术之一。目前的语音识别方法一般根据:声学模型、发音字典以及语言模型进行识别。其中声学模型通过深度神经网络训练,语言模型一般是统计语言模型,而发音字典记录了词与音素之间的对应关系,是连接声学模型和语言模型的纽带。
随着语音交互技术的广泛应用,基于语音的交互设备越来越受到用户喜爱,而这类设备能够完成相应语音交互场景的关键就是利用语音识别技术对语音指令进行识别并作出正确的响应,因而语音识别的准确性,是决定语音交互设备性能和用户体验的关键要素。
为了提供高品质的语音交互产品给用户,在语音交互产品上市前,都会首先对其进行语音测试,以检测其对语音指令识别和响应的准确率。现有的方式下,进行语音测试,是测试人员逐一人工读取语音指令进行判别的,效率非常低,测试成本也非常高。
发明内容
为了解决上述问题,本发明的目的之一在于提供一种能够自动识别语义准确性的工具,以满足对大批量的语音进行处理的测试需求,提高测试效率。
同时,本发明的目的还在于,在能够自动化批量处理语音的基础上,也能够对语音处理的效果例如准确性进行自动判别,以进一步提高测试效率,降低测试成本。
另外,本发明的目的还在于,能够简化该工具的实现方法,使得其是容易实现的。
基于此,根据本发明的第一个方面,提供了一种自动化识别语义准确性的方法,包括如下步骤:
获取语音指令;
对语音指令进行识别和解析,获取语义解析结果;
对语义解析结果进行检测,确定语义解析结果的准确性;
根据对语义解析结果的准确性输出检测结果。
根据本发明的第二个方面,提供了一种自动化识别语义准确性的装置,包括:
语音获取模块,用于获取语音指令;
语音解析模块,用于对语音指令进行识别和解析,获取语义解析结果;
校对模块,用于对语义解析结果进行检测,确定语义解析结果的准确性;
结果呈现模块,用于根据对语义解析结果的准确性输出检测结果。
根据本发明的第三个方面,提供了一种电子设备,其包括:至少一个处理器,以及与至少一个处理器通信连接的存储器,其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行上述方法的步骤。
根据本发明的第四个方面,提供了一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述方法的步骤。
本发明提供的装置和方法,可以用于批量识别语音信息,并呈现识别出的对应语义内容的准确性,并且只需简单的一键操作,即可一目了然地看到对语义解析结果的准确性的检测结果,由此可高效统计语义识别的正确率,并分析语义识别的性能,提高了语音集成客户端的工作效率和适配的准确率。
附图说明
图1为本发明一实施方式的自动化识别语义准确性的方法流程图;
图2为本发明一实施方式的自动化识别语义准确性的装置原理框图;
图3为本发明一实施方式的电子设备框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
本发明可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、元件、数据结构等等。也可以在分布式计算环境中实践本发明,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
在本发明中,“模块”、“装置”、“***”等指应用于计算机的相关实体,如硬件、硬件和软件的组合、软件或执行中的软件等。详细地说,例如,元件可以、但不限于是运行于处理器的过程、处理器、对象、可执行元件、执行线程、程序和/或计算机。还有,运行于服务器上的应用程序或脚本程序、服务器都可以是元件。一个或多个元件可在执行的过程和/或线程中,并且元件可以在一台计算机上本地化和/或分布在两台或多台计算机之间,并可以由各种计算机可读介质运行。元件还可以根据具有一个或多个数据包的信号,例如,来自一个与本地***、分布式***中另一元件交互的,和/或在因特网的网络通过信号与其它***交互的数据的信号通过本地和/或远程过程来进行通信。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”,不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本发明实施例的自动化识别语义准确性的方法可以应用于任何配置了语音功能的终端设备,例如,智能手机、平板电脑、智能家居等终端设备,本发明对此不作限制。
下面结合附图对本发明作进一步详细的说明。
图1示意性地显示了根据本发明的一种实施方式的自动化识别语义准确性的方法流程图。如图1所示,本实施例包括如下步骤:
步骤S101:获取语音指令。
示例性地,可以实现为通过配置的语料合成得到语音指令,具体为首先获取语料配置文件,其中,语料配置文件中存储有特定的语料信息,其存储在指定的路径位置,通过在指定路径位置读取相应的文件,即可获取到该语料配置文件。优选地,语料配置文件实现为excel文件,通过python脚本实现对excel格式的语料配置文件的读取,以获取语料内容,之后将获取到的语料内容通过语音合成技术合成为TTS语音,即合成为语音指令。
在一些实施例中,获取语音指令还可以是直接获取音频文件的语音指令,这种情况下,可以将语音指令对应的音频文件存储到指定路径,在开始处理时,直接到指定路径获取全部的语音指令的音频文件。
步骤S102:对语音指令进行识别和解析,获取语义解析结果。
对语音指令进行识别和解析的方式可以参照现有技术的语音识别和语义解析技术实现,即逐条将语音指令通过语音识别技术转换为文本,并对识别得到的文本进行语义解析,得到最终的语义解析结果。其中,作为一种优选实施例,得到的语义解析结果可以实现为包括领域、分类(slot)和控制值等,领域用于标识该语音指令对应的业务领域,如是关于导航的、还是音乐的等,分类用于标识该语音指令所指向的对象,而控制值则用于标识该语音指令所要做出的动作,示例性地,对于“打开收音机”的语音指令,解析结果为“MUSIC(领域)/Radio(对象)/PLAY(控制值)”。
步骤S103:对语义解析结果进行检测,确定语义解析结果的准确性,对语义解析结果的准确性的判别,主要是基于标准语料进行对比实现,基于获取语音指令的方式不同,可以有以下两种针对性的具体实现例:
一,对于通过语料配置文件合成的语音指令的语义解析结果,在进行语料配置文件的配置时,会在语料配置文件中设置语料内容,此时,会将语料配置文件中的语料作为标准列,即标准语料,将语义解析结果与语料配置文件中的相应语料进行比较,根据比较结果确定准确性。
二,对于通过直接获取音频文件得到的语音指令,对其的语义解析结果的检测是通过预先配置的标准语料进行判别,具体为,首先为音频文件配置标准语料文件,在标准语料文件中,将音频文件的标识符(如名称、路径或ID)与标准语料内容进行关联绑定,形成映射文件,在获取到语义解析结果后,将语义解析结果与标准语料文件中的标准语料内容进行比较,根据比较结果确定准确性。
步骤S104:根据对语义解析结果的准确性输出检测结果。
输出检测结果的方式示例性地可以为,通过将检测结果为有误的相应语音指令进行输出显示,也可以是通过将检测结果为有误的语音指令对应的文件行进行突出显示,以后者为例,针对语音指令的获取方式不同,该步骤可以实现为:
对于通过语料配置文件获取语音指令的情况,将语音指令对应的语料行(即与语音指令相对应的语料所在的行)的背景色进行突出显示,可以是根据对语义解析结果的准确性,通过python脚本修改语料配置文件的相应语料所在行的背景色。示例性地,某一语音指令的语义结果准确性较低,则通过python脚本的对应功能(调用相应的接口函数)将该语音指令对应的语料配置excel文件的该条准确率低的语料的背景色修改为红色。通过pyhton脚本进行文件读取和文件背景色修改,实现简单,方便研发,执行和响应效率都比较高,相对其他实现方式,更加容易实现,简化开发过程。
对于通过音频文件获取语音指令的情况,则可以是通过修改其标准语料文件的对应行的背景色。
通过上述步骤,可以实现一键即可批量导入语音指令进行识别测试,并能够自动分析识别结果的准确性,并将识别结果的准确性进行可视化展示,简单直观。可见,根据本实施例的方法可以实现自动的识别大批量的语音指令,高效统计语义识别的正确率,并分析语义识别的性能,提高了语音集成客户端的工作效率和适配的准确率。
作为一种优选实施例,在进行上述方法的过程中,除了将该检测结果输出之外,还可以将语义解析结果直接在对应的语料行进行输出显示,也可以方便用户直接进行核对语音处理结果是否合理,这种情况下,可以结合背景色更改的处理,也可以单独仅输出语义解析结果而不进行背景色更改,由用户自行对比确认,显然,上述实现例更优。由于输出的语义解析结果包括有语音指令对应的语料所在领域、分类、控制值(语音指令对应的动作),因而相对传统的测试方式,也达到了高效、直观、快速的效果。
图2示意性地显示了根据本发明一实施方式的自动化识别语义准确性的装置原理框图,如图2所示,
自动化识别语义准确性的装置包括语音获取模块201、语音解析模块202、校对模块203和结果呈现模块204。
语音获取模块201用于获取语音指令,该模块可以实现为具有拾音功能的音频采集装置,也可以是用于读取语料配置文件或音频文件的文件读取模块,当为后者时,可以通过python脚本实现。
其中,当通过读取语料配置文件来获取语音指令时,语音获取模块201实现为包括语料获取单元2011和语音合成单元2012。语料获取单元2011用于获取语料配置文件,并读取语料。语音合成单元2012用于将读取到的语料合成为语音指令输出。
语音解析模块202用于对语音指令进行识别和解析,获取语义解析结果,其实现方式可以参照现有技术的语音识别和语义解析技术。
校对模块203用于对语义解析结果进行检测,确定语义解析结果的准确性,其实现方式可以参照上述的方法部分。
结果呈现模块204用于根据对语义解析结果的准确性输出检测结果,该检测结果为将语义解析结果准确率较低的语音指令对应的语料所在行的背景色进行突出显示,例如修改为红色。
在其他实现例中,上述装置也可以不具有校对模块,而是直接通过结果呈现模块204进行语义解析结果的输出展示,其中,输出展示的语义解析结果包括有语音指令所在领域、分类、控制值(语音指令对应的动作),其显示在语音指令对应的标准语料所在行的不同列,以达到方便查看比对的效果。
根据本实施例的装置可以自动对获取的大批量语音指令进行语音识别,并且能够展现其领域、对象、控制值、准确率等参数,由此可以高效统计语义识别的正确率,并分析语义识别的性能,提高了语音集成客户端的工作效率和适配的准确率。
上述实施例中,对语料配置文件的操作(如读取语料、写入语义解析结果、写入语料、更改背景色)和对语义解析结果准确性的判断均可以通过python脚本实现,而将输入语料转化为语音指令和生成语义解析结果则可以通过C语言实现,以简化开发过程。
在一些实施例中,本发明实施例提供一种非易失性计算机可读存储介质,所述存储介质中存储有一个或多个包括执行指令的程序,执行指令能够被电子设备(包括但不限于计算机,服务器,或者网络设备等)读取并执行,以用于执行本发明上述任一项自动化识别语义准确性的方法。
在一些实施例中,本发明实施例还提供一种计算机程序产品,计算机程序产品包括存储在非易失性计算机可读存储介质上的计算机程序,计算机程序包括程序指令,当所程序指令被计算机执行时,使计算机执行上述任一项自动化识别语义准确性的方法。
在一些实施例中,本发明实施例还提供一种电子设备,其包括:至少一个处理器,以及与至少一个处理器通信连接的存储器,其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行自动化识别语义准确性的方法。
在一些实施例中,本发明实施例还提供一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时自动化识别语义准确性的方法。
上述本发明实施例的自动化识别语义准确性的装置可用于执行本发明实施例的自动化识别语义准确性的方法,并相应的达到上述本发明实施例的实现自动化识别语义准确性的方法所达到的技术效果,这里不再赘述。本发明实施例中可以通过硬件处理器(hardware processor)来实现相关功能模块。
图3是本发明一实施例提供的执行自动化识别语义准确性的方法的电子设备的硬件结构示意图,如图3所示,该设备包括:
一个或多个处理器410以及存储器420,图3中以一个处理器410为例。
执行自动化识别语义准确性的方法的设备还可以包括:输入装置430和输出装置440。
处理器410、存储器420、输入装置430和输出装置440可以通过总线或者其他方式连接,图3中以通过总线连接为例。
存储器420作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本申请实施例中的自动化识别语义准确性的方法对应的程序指令/模块。处理器410通过运行存储在存储器420中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例的自动化识别语义准确性的方法。
存储器420可以包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需要的应用程序;存储数据区可存储根据自动化识别语义准确性的装置的使用所创建的数据等。此外,存储器420可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器420可选包括相对于处理器410远程设置的存储器,这些远程存储器可以通过网络连接至自动化识别语义准确性的装置。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置430可接收输入的数字或字符信息,以及产生与自动化识别语义准确性的装置的用户设置以及功能控制有关的信号。输出装置440可包括显示屏等显示设备。
上述一个或者多个模块存储在存储器420中,当被所述一个或者多个处理器410执行时,执行上述任意方法实施例中的自动化识别语义准确性的方法。
上述产品可执行本申请实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本申请实施例所提供的方法。
本申请实施例的电子设备以多种形式存在,包括但不限于:
(1)移动通信设备:这类设备的特点是具备移动通信功能,并且以提供话音、数据通信为主要目标。这类终端包括:智能手机(例如iPhone)、多媒体手机、功能性手机,以及低端手机等。
(2)超移动个人计算机设备:这类设备属于个人计算机的范畴,有计算和处理功能,一般也具备移动上网特性。这类终端包括:PDA、MID和UMPC设备等,例如iPad。
(3)车载装置:这类设备应用于车载驾驶中,可以实现与汽车的其它辅助***等连接。
(4)服务器:提供计算服务的设备,服务器的构成包括处理器、硬盘、内存、***总线等,服务器和通用的计算机架构类似,但是由于需要提供高可靠的服务,因此在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面要求较高。
(5)其他具有数据交互功能的电子装置。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对相关技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (10)

1.自动化识别语义准确性的方法,其特征在于,包括如下步骤:
在excel文件中设置特定的语料信息,并设定标准语料列,以形成语料配置文件;
将所述语料配置文件存储在指定的路径位置;
从指定的路径位置读取语料配置文件,根据所述语料配置文件获取语音指令;
获取对语音指令的语义解析结果,其中,所述语义解析结果包括领域、分类和控制值,所述领域用于标识语音指令对应的业务领域,所述分类用于标识语音指令所指向的对象,所述控制值用于标识语音指令所要做出的动作;
对语义解析结果进行检测,确定语义解析结果的准确性;
根据语义解析结果的准确性输出检测结果,其实现为包括将语义解析结果在语料配置文件的相应语料行进行输出显示,同时根据语义解析结果的准确性,修改所述语料配置文件中的相应语料所在行的背景色。
2.根据权利要求1所述的方法,其特征在于,其中,所述根据语料配置文件获取语音指令包括
获取语料配置文件,并读取语料;
将读取到的语料合成为语音指令输出;
所述根据语义解析结果的准确性输出检测结果包括
根据语义解析结果的准确性,修改语料配置文件的相应语料所在行的背景色。
3.根据权利要求2所述的方法,其特征在于,所述对语义解析结果进行检测,确定语义解析结果的准确性包括
将语义解析结果与语料配置文件中的相应语料的标准语料列中的标准语料进行比较,根据比较结果确定准确性。
4.根据权利要求2所述的方法,其特征在于,所述获取语料配置文件并读取语料、以及根据对语义解析结果的准确性,修改语料配置文件的相应语料所在行的背景色均通过python脚本实现。
5.自动化识别语义准确性的方法,其特征在于,包括如下步骤:
将语音指令对应的音频文件存储到指定路径;
为所述音频文件配置标准语料文件,其中,所述标准语料文件中设置有音频文件的标识符和与音频文件对应的标准语料;
从指定的路径位置读取音频文件,根据所述音频文件获取语音指令;
获取对语音指令的语义解析结果,其中,所述语义解析结果包括领域、分类和控制值,所述领域用于标识语音指令对应的业务领域,所述分类用于标识语音指令所指向的对象,所述控制值用于标识语音指令所要做出的动作;
对语义解析结果进行检测,确定语义解析结果的准确性;
根据语义解析结果的准确性输出检测结果,其实现为包括将语义解析结果在所述音频文件对应的标准语料文件的相应语料行进行输出显示,同时根据语义解析结果的准确性,修改所述音频文件对应的标准语料文件中的相应语料所在行的背景色。
6.根据权利要求5所述的方法,其特征在于,所述对语义解析结果进行检测,确定语义解析结果的准确性包括
将语义解析结果与标准语料文件中的语义内容进行比较,根据比较结果确定准确性。
7.自动化识别语义准确性的装置,其特征在于,包括
语音获取模块,用于从指定的路径位置读取语料配置文件或音频文件,根据所述语料配置文件或音频文件获取语音指令;
语音解析模块,用于对语音指令进行识别和解析,获取语义解析结果,其中,所述语义解析结果包括领域、分类和控制值,所述领域用于标识语音指令对应的业务领域,所述分类用于标识语音指令所指向的对象,所述控制值用于标识语音指令所要做出的动作;
校对模块,用于对语义解析结果进行检测,确定语义解析结果的准确性;
结果呈现模块,用于根据语义解析结果的准确性输出检测结果,其包括将语义解析结果在所述语料配置文件或所述音频文件对应的标准语料文件的相应语料行进行输出显示,同时根据语义解析结果的准确性,修改所述语料配置文件或与所述音频文件对应的标准语料文件中的相应语料所在行的背景色。
8.根据权利要求7所述的装置,其特征在于,所述语音获取模块包括
语料获取单元,用于从指定的路径位置获取语料配置文件,并读取语料;
语音合成单元,用于将读取到的语料合成为语音指令输出。
9.电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-6中任意一项所述方法的步骤。
10.存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1-6中任意一项所述方法的步骤。
CN201811611680.5A 2018-12-27 2018-12-27 一种自动化识别语义准确性的方法及装置 Active CN109637536B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811611680.5A CN109637536B (zh) 2018-12-27 2018-12-27 一种自动化识别语义准确性的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811611680.5A CN109637536B (zh) 2018-12-27 2018-12-27 一种自动化识别语义准确性的方法及装置

Publications (2)

Publication Number Publication Date
CN109637536A CN109637536A (zh) 2019-04-16
CN109637536B true CN109637536B (zh) 2020-11-13

Family

ID=66078314

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811611680.5A Active CN109637536B (zh) 2018-12-27 2018-12-27 一种自动化识别语义准确性的方法及装置

Country Status (1)

Country Link
CN (1) CN109637536B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110263322B (zh) * 2019-05-06 2023-09-05 平安科技(深圳)有限公司 用于语音识别的音频语料筛选方法、装置及计算机设备
CN112151014B (zh) * 2020-11-04 2023-07-21 平安科技(深圳)有限公司 语音识别结果的测评方法、装置、设备及存储介质
CN112420019B (zh) * 2020-11-18 2023-02-03 青岛海尔科技有限公司 设备的测试方法及装置
CN113343711B (zh) * 2021-06-29 2024-05-10 南方电网数字电网研究院有限公司 工单生成方法、装置、设备及存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10074364B1 (en) * 2016-02-02 2018-09-11 Amazon Technologies, Inc. Sound profile generation based on speech recognition results exceeding a threshold
US10733989B2 (en) * 2016-11-30 2020-08-04 Dsp Group Ltd. Proximity based voice activation
CN109003602B (zh) * 2018-09-10 2020-03-24 百度在线网络技术(北京)有限公司 语音产品的测试方法、装置、设备及计算机可读介质

Also Published As

Publication number Publication date
CN109637536A (zh) 2019-04-16

Similar Documents

Publication Publication Date Title
CN109637536B (zh) 一种自动化识别语义准确性的方法及装置
CN109346059B (zh) 一种方言语音的识别方法及电子设备
CN107516510B (zh) 一种智能设备自动化语音测试方法及装置
CN109326305B (zh) 一种批量测试语音识别和文本合成的方法和测试***
CN109473104B (zh) 语音识别网络延时优化方法及装置
CN108305618B (zh) 语音获取及搜索方法、智能笔、搜索终端及存储介质
CN109979440B (zh) 关键词样本确定方法、语音识别方法、装置、设备和介质
CN108766431B (zh) 一种基于语音识别的自动唤醒方法及电子设备
CN109215638B (zh) 一种语音学习方法、装置、语音设备及存储介质
CN110111778B (zh) 一种语音处理方法、装置、存储介质及电子设备
CN111724781B (zh) 音频数据的存储方法、装置、终端及存储介质
CN111292751A (zh) 语义解析方法及装置、语音交互方法及装置、电子设备
CN109817203B (zh) 一种语音交互的方法和***
CN110827825A (zh) 语音识别文本的标点预测方法、***、终端及存储介质
CN111415684B (zh) 语音模组的测试方法、装置及计算机可读存储介质
KR20190115405A (ko) 검색 방법 및 이 방법을 적용하는 전자 장치
JP2018063271A (ja) 音声対話装置、音声対話システム、および、音声対話装置の制御方法
CN111179907A (zh) 语音识别测试方法、装置、设备及计算机可读存储介质
CN115509485A (zh) 一种业务表单的填写方法、装置、电子设备和存储介质
CN110956958A (zh) 搜索方法、装置、终端设备及存储介质
CN110970030A (zh) 一种语音识别转换方法及***
CN113515594A (zh) 意图识别方法、意图识别模型训练方法、装置及设备
CN109273004B (zh) 基于大数据的预测性语音识别方法及装置
EP4276827A1 (en) Speech similarity determination method, device and program product
CN114999457A (zh) 语音***的测试方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: 215123 14 Tengfei Innovation Park, 388 Xinping street, Suzhou Industrial Park, Suzhou, Jiangsu.

Patentee after: Sipic Technology Co.,Ltd.

Address before: 215123 14 Tengfei Innovation Park, 388 Xinping street, Suzhou Industrial Park, Suzhou, Jiangsu.

Patentee before: AI SPEECH Ltd.