CN114179083B - 一种引领机器人语音信息的生成方法、装置和引领机器人 - Google Patents
一种引领机器人语音信息的生成方法、装置和引领机器人 Download PDFInfo
- Publication number
- CN114179083B CN114179083B CN202111506393.XA CN202111506393A CN114179083B CN 114179083 B CN114179083 B CN 114179083B CN 202111506393 A CN202111506393 A CN 202111506393A CN 114179083 B CN114179083 B CN 114179083B
- Authority
- CN
- China
- Prior art keywords
- voice signal
- visitor
- robot
- leading
- language type
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000004044 response Effects 0.000 claims abstract description 102
- 238000004590 computer program Methods 0.000 claims description 20
- 238000013519 translation Methods 0.000 claims description 9
- 238000012790 confirmation Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 241001672694 Citrus reticulata Species 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1661—Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
Landscapes
- Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Robotics (AREA)
- Acoustics & Sound (AREA)
- Automation & Control Theory (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Manipulator (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Fuzzy Systems (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
Abstract
本公开涉及引领机器人技术领域,提供了一种引领机器人语音信息的生成方法、装置和引领机器人。该方法包括:在引领机器人检测到有来访者需要引领帮助时,获取该来访者的语音信号;识别该语音信号的语言类型;基于该语言类型,确定该引领机器人的应答语音信号的生成方式,该生成方式包括本地方式和服务器方式;基于该生成方式生成与该来访者的语言类型对应的应答语音信号,并在该引领机器人上播放该应答语音信号。本公开根据语言类型的不同,选择在引领机器人或服务器上来生成应对来访者的应答语音信号,使引领机器人能够应对更多不同语种的来访者,增大了服务范围。
Description
技术领域
本公开涉及引领机器人技术领域,尤其涉及一种引领机器人语音信息的生成方法、装置和引领机器人。
背景技术
目前在一些商场或写字楼场景下,已经有使用机器人来为来访者提供引领服务。来访者可以向这些机器人讲出自己想要到达的目标地点,便可以获得相应的导航信息,或者机器人便可以通过语音的方式为来访者讲解导航信息,非常的方便和智能。不过,现有的这些机器人一般仅支持中文或英文,如果来访者是讲其它语言或方言,那么机器人可能则无法识别来访者的讲话内容,从而无法完成引领服务。
发明内容
有鉴于此,本公开实施例提供了一种引领机器人语音信息的生成方法、装置和引领机器人,以解决现有技术中引领机器人支持语言类型少,不能提为更多语言类型的来访者提供引领服务的问题。
本公开实施例的第一方面,提供了一种引领机器人语音信息的生成方法,包括:在引领机器人检测到有来访者需要引领帮助时,获取该来访者的语音信号;识别该语音信号的语言类型;基于该语言类型,确定该引领机器人的应答语音信号的生成方式,该生成方式包括本地方式和服务器方式;基于该生成方式生成与该来访者的语言类型对应的应答语音信号,并在该引领机器人上播放该应答语音信号。
本公开实施例的第二方面,提供了一种引领机器人语音信息的生成装置,包括:语音获取模块,被配置为在引领机器人检测到有来访者需要引领帮助时,获取该来访者的语音信号;语音识别模块,被配置为识别该语音信号的语言类型;方式确认模块,被配置为基于该语言类型,确定该引领机器人的应答语音信号的生成方式,该生成方式包括本地方式和服务器方式;语音生成模块,被配置为基于该生成方式生成与该来访者的语言类型对应的应答语音信号,并在该引领机器人上播放该应答语音信号。
本公开实施例的第三方面,提供了一种引领机器人,包括扬声器、显示器和计算设备,该计算设备分别与扬声器和显示器连接,该计算设备包括存储器、处理器以及存储在存储器中并且可以在处理器上运行的计算机程序,该处理器执行计算机程序时实现上述方法的步骤。
本公开实施例的第四方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
本公开实施例与现有技术相比存在的有益效果是:通过在引领机器人检测到有来访者需要引领帮助时,获取该来访者的语音信号;识别该语音信号的语言类型;基于该语言类型,确定该引领机器人的应答语音信号的生成方式,该生成方式包括本地方式和服务器方式;基于该生成方式生成与该来访者的语言类型对应的应答语音信号,并在该引领机器人上播放该应答语音信号,实现了根据语言类型的不同,选择在引领机器人或服务器上来生成应对来访者的应答语音信号,使引领机器人能够应对更多不同语种的来访者,增大了服务范围。
附图说明
为了更清楚地说明本公开实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本公开实施例的应用场景的场景示意图;
图2是本公开实施例提供的一种引领机器人语音信息的生成方法的流程示意图;
图3是本公开实施例提供的一种引领机器人语音信息的生成装置的结构示意图;
图4是本公开实施例提供的一种计算设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定***结构、技术之类的具体细节,以便透彻理解本公开实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本公开。在其它情况中,省略对众所周知的***、装置、电路以及方法的详细说明,以免不必要的细节妨碍本公开的描述。
下面将结合附图详细说明根据本公开实施例的一种引领机器人语音信息的生成方法和装置。
图1是本公开实施例的应用场景的场景示意图。该应用场景可以包括机器人1、用户2、服务器3和网络4。
机器人1通过网络4与服务器3连接,在本公开应用场景下,机器人1可以为引领机器人,用于为用户2提供导航或引领服务。具体地,机器人1上可以包括扬声器11和显示器12,扬声器11可以用于播放引领相关的语音信息,例如播放导航信息;显示器12可以用于显示与引领或导航相关的信息,例如,显示器12可以显示信息输入界面,供用户2输入目标地点。
服务器3可以是提供各种服务的服务器,例如,对与其建立通信连接的机器人1发送的请求进行接收的后台服务器,该后台服务器可以对机器人1发送的请求进行接收和分析等处理,并生成处理结果。服务器4可以是一台服务器,也可以是由若干台服务器组成的服务器集群,或者还可以是一个云计算服务中心,本公开实施例对此不作限制。
需要说明的是,服务器3可以是硬件,也可以是软件。当服务器3为硬件时,其可以是为机器人1提供各种服务的各种电子设备。当服务器3为软件时,其可以是为机器人1提供各种服务的多个软件或软件模块,也可以是为机器人1提供各种服务的单个软件或软件模块,本公开实施例对此不作限制。
网络4可以是采用同轴电缆、双绞线和光纤连接的有线网络,也可以是无需布线就能实现各种通信设备互联的无线网络,例如,WIFI,本公开实施例对此不作限制。
用户2可以向机器人1讲出包含自己想要去到的目标地点的语音信号,机器人1在接收到用户2的语音信号之后,识别语音信号的语言类型,并根据语音类型的不同,如果语言类型是引领机器人默认的语言类型,那么机器人1将根据该目标地点生成对应的应答语音信号;如果语言类型不是引领机器人默认的语言类型,那么机器人1将用户2的语音信号发送给服务器3,由服务器3根据该语音信号的语言。
需要说明的是,机器人1、服务器3以及网络4的具体类型、数量和组合可以根据应用场景的实际需求进行调整,本公开实施例对此不作限制。
图2是本公开实施例提供的一种引领机器人语音信息的生成方法的流程图。图2的引领机器人语音信息的生成方法可以由图1的机器人1执行。如图2所示,该引领机器人语音信息的生成方法包括:
S201,在引领机器人检测到有来访者需要引领帮助时,获取该来访者的语音信号;
S202,识别该语音信号的语言类型;
S203,基于该语言类型,确定该引领机器人的应答语音信号的生成方式,该生成方式包括本地方式和服务器方式;
S204,基于该生成方式生成与该来访者的语言类型对应的应答语音信号,并在该引领机器人上播放该应答语音信号。
具体地,在本地方式下,可以直接在引领机器人上生成应答来访者的应答语音信号。例如,引领机器人的默认语言类型为中文或普通话,当来访者使用中文向引领机器人发出包含目标地点的语音信号时,引领机器人可以在本地生成应答该目标地点的导航语音信息,即应答语音信号。在服务器方式下,引领机器人只需要将来访者的语音信号发送给服务器,并从服务器接收应答来访者的应答语音信号,即由服务器来生成应对来访者的应答语音信号。例如,引领机器人的默认语言类型为中文或普通话,当来访者使用英文向引领机器人发出包含目标地点的语音信号,那么引领机器人将该语音信号转发给服务器,服务器将识别该语音信号的内容,得到目标地点,然后生成该目标地点的应答信息,并根据该应答信息生成对应的应答语音信号,并返回给引领机器人,引领机器人接收该应答语音信号,并在引领机器人上播放该应答语音信号。由于服务器具有更强的信息处理能力,因此能够提供除了默认语言类型之外的其他语言类型的语音信号的分析处理能力。
本公开实施例通过对来访者发出的语音信号的语言信号进行识别,根据语言类型的不同,选择在引领机器人或服务器上来生成应对来访者的应答语音信号,使引领机器人能够应对更多不同语种的来访者,增大了服务范围。
在一些实施例中,该基于该语言类型,确定该引领机器人的应答语音信号的生成方式,该生成方式包括本地方式和服务器方式,包括:检测该语音信号的语言类型是否为默认语言类型;若是,则确定以本地方式生成该引领机器人的应答语音信号;若不是,则确定以服务器方式生成该引领机器人的应答语音信号。
具体地,默认语言类型可以是用户根据使用场景来自行设置的一种或多种语言类型,也可以是用户对已经设置的默认语言类型进行调整后的新的默认语言类型,本公开实施例对此不作限制。在本公开实施例中,优选为引领机器人预先设置一种默认语言类型,例如,中文。
本公开实施例针对来访者使用机器人默认语言类型来发出语音信号时,可以由引领机器人来快速得到相应的应答语音信号。
在一些实施例中,在确定以本地方式生成该引领机器人的应答语音信号的情况下,该基于该生成方式生成与该来访者的语言类型对应的应答语音信号,包括:对该来访者的语音信号进行识别,得到该语音识别的翻译信息;将该翻译信息输入预先训练的导航应答模型,得到该导航应答模型输出的应答信息;基于该应答信息生成默认语言类型的应答语音信号。
具体地,导航应答模型可以是预先利用对话模板样本进行学习得到的机器学习模型,利用导航应答模型可以智能地回答来访者的问题。例如,来访者的语音信号对应的翻译信息为:我想去目标地点A,那么将该翻译信息输入导航问答模型中,便可以自动得到相应的导航信息,并将该导航信息生成默认语言类型的应答语音信号,让来访者可以通过引领机器人播放的应答语音信号来了解所问目标地点的导航信息。
本公开实施例通过预先建立对应来访者语音信号的导航应答模型,来智能生成应对来访者的应答语音信号,使得引领机器人具有较高的智能性,并且能够快速响应来访者的语音信号。
在一些实施例中,在确定以服务器方式生成该引领机器人的应答语音信号的情况下,该基于该生成方式生成与该来访者的语言类型对应的应答语音信号,包括:将该来访者的语音信号发送至服务器,请求该服务器生成与该来访者的语音信号的语言类型一致的应答语音信号,该服务器与该引领机器人网络连接;接收该服务器返回的应答语音信号。
具体地,相比于引领机器人,服务器具有更丰富的计算资源和运算能力,因此,可以由服务器来应对非默认语言类型的语音信号,能够快速地得到应答语音信号。
结合图1应用场景来说,假设引领机器人为图1机器人1,那么服务器3可以通过网络4与一个或多个机器人1连接,在机器人1检测到用户2发出的语音信号不是默认语言类型的情况下,将语音信号发送给服务器3,由服务器3对该语音信号进行识别,得到对应的翻译信息,同样可以利用预先训练的导航应答模型或其他机器学习模型来智能生成对应的应答信息,并将该应答信息编码为与来访者的语音信号的语言类型一致的应答语音信号,并将应答语音信号返回给机器人1。在本公开实施例中,为了提高机器人1与服务器3之间的通信速度,机器人1与服务器3之间可以采用有线网络连接,即在局域网下来为机器人1提供服务。
本公开实施例通过服务器来生成来访者的应答语音信号,可以进一步扩大引领机器人的语言服务范围。
在一些实施例中,该获取该来访者的语音信号,包括:若在预设时间内未接收到语音信号,则在该引领机器人的显示屏幕上显示信息输入界面,并提示该来访者在该信息输入界面上输入想要查询的目标地点。
具体地,引领机器人检测到有来访者需要引领帮助时,可能有些来访者并不会及时发出语音信号来寻求引领帮助,或者也可能不能发出语音信号。例如,在来访者为残障人士时,可能来访者不能说话,那么引领机器人则无法获取到语音信号。
在本公开实施例中,如果在预设时间内引领机器人没有接受到语音信号,则可以在引领机器人上显示信息输入界面来供来访者进行手动输入引领信息。这样,使得来访者除了可以使用语音来寻求引领服务之外,也可以使用手动输入信息的方式来获取引领服务。
具体地,预设时间可以是用户根据经验数据设置的时间阈值,也可以是用户对已经设置的预设时间进行调整后得到的新的时间阈值,本公开实施例对此不作限制。
本公开实施例针对来访者未发出语音信号或未在规定时间内发出语音信号的情况提供了额外的信息输入方式,使引领机器人能够应对更多不同情况的来访者,并提供更人性化和周到的引领服务。
在一些实施例中,该识别该语音信号的语言类型,包括:基于该来访者在该信息输入界面上输入的引领信息确定应答该引领信息的语言类型。
具体地,如果来访使用信息输入界面来向引领机器人发送想要查询的信息,例如,来访者在信息输入界面输入目标地点,则可以引领机器人可以根据来访者输入的内容来确定来访者所使用的语言类型,以便后续生成与该语言类型一致的应答语言信息。
进一步地,当用户采用信息输入界面来输入想要查询的目标地点时,引领机器人在生成应答语音信息的同时,可以在播放该应答语音信息的同时,还在该信息输入界面显示该应答语音信息对应的语音内容,使得如果来访者不具备听力的情况下,还可以通过信息输入界面显示的内容来获取引领信息。
本公开针对用户手动输入需要查询的信息的情况提供了相对应的语言类型识别方式,以及在播放应答语音信息的同时,还提供内容显示的方式来使来访者能够及时获取到引领信息。
在一些实施例中,该识别该语音信号的语言类型,包括:在无法识别出该语音信号的语言类型的情况下,控制该引领机器人开启远程视频窗口,由人工通过该远程视频窗口与该来访者进行视频通话。
具体地,实际中来访者发出的语音信号的语言类型可能并不在引领机器人和服务器预设范围内,或者,来访者发出的语音信息不标准,也或是来访者讲的是方言等情况下,此时,引领机器人可能无法识别来访者的语音信号对应的语言类型。对于这些场景,引领机器人可以开启远程视频窗口来为来访者提供人工服务,即由人员与来访者进行视频通话,从而解决来访者的引领服务。
本公开实施例通过设置远程视频窗口来应对引领机器人和服务器的服务能力范围之外的情况,使得引领机器人能够应对各种不同场景的来访者,尽可能地避免了无法为来访者提供引领服务的情况。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
下述为本公开装置实施例,可以用于执行本公开方法实施例。对于本公开装置实施例中未披露的细节,请参照本公开方法实施例。
图3是本公开实施例提供的一种引领机器人语音信息的生成装置的示意图。如图3所示,该引领机器人语音信息的生成装置包括:
语音获取模块301,被配置为在引领机器人检测到有来访者需要引领帮助时,获取该来访者的语音信号;
语音识别模块302,被配置为识别该语音信号的语言类型;
方式确认模块303,被配置为基于该语言类型,确定该引领机器人的应答语音信号的生成方式,该生成方式包括本地方式和服务器方式;
语音生成模块304,被配置为基于该生成方式生成与该来访者的语言类型对应的应答语音信号,并在该引领机器人上播放该应答语音信号。
本公开实施例通过对来访者发出的语音信号的语言信号进行识别,根据语言类型的不同,选择在引领机器人或服务器上来生成应对来访者的应答语音信号,使引领机器人能够应对更多不同语种的来访者,增大了服务范围。
在一些实施例中,图3中的方式确认模块303检测该语音信号的语言类型是否为默认语言类型;若是,则确定以本地方式生成该引领机器人的应答语音信号;若不是,则确定以服务器方式生成该引领机器人的应答语音信号。
在一些实施例中,在确定以本地方式生成该引领机器人的应答语音信号的情况下,图3中的语音生成模块304对该来访者的语音信号进行识别,得到该语音识别的翻译信息;将该翻译信息输入预先训练的导航应答模型,得到该导航应答模型输出的应答信息;基于该应答信息生成默认语言类型的应答语音信号。
在一些实施例中,在确定以服务器方式生成该引领机器人的应答语音信号的情况下,图3中的语音生成模块304将该来访者的语音信号发送至服务器,请求该服务器生成与该来访者的语音信号的语言类型一致的应答语音信号,该服务器与该引领机器人网络连接;接收该服务器返回的应答语音信号。
在一些实施例中,图3中的语音获取模块301用于若在预设时间内未接收到语音信号,则在该引领机器人的显示屏幕上显示信息输入界面,并提示该来访者在该信息输入界面上输入想要查询的目标地点。
在一些实施例中,图3中的语音识别模块302基于该来访者在该信息输入界面上输入的引领信息确定应答该引领信息的语言类型。
在一些实施例中,图3中的语音识别模块302在无法识别出该语音信号的语言类型的情况下,该引领机器人语音信息的生成装置还包括:视频通话模块305,被配置为控制该引领机器人开启远程视频窗口,由人工通过该远程视频窗口与该来访者进行视频通话。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本公开实施例的实施过程构成任何限定。
图4是本公开实施例提供的计算设备400的示意图。图4中的计算设备4可以应用图1应用场景下的机器人1中,例如,机器人1可以包括扬声器、显示器和计算设备4,计算设备分别与扬声器和显示器连接。如图4所示,该实施例的计算设备400包括:处理器401、存储器402以及存储在该存储器402中并且可以在处理器401上运行的计算机程序403。处理器401执行计算机程序403时实现上述各个方法实施例中的步骤。或者,处理器401执行计算机程序403时实现上述各装置实施例中各模块/单元的功能。
示例性地,计算机程序403可以被分割成一个或多个模块/单元,一个或多个模块/单元被存储在存储器402中,并由处理器401执行,以完成本公开。一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述计算机程序403在计算设备400中的执行过程。
计算设备400可以是桌上型计算机、笔记本、掌上电脑及云端服务器等电子设备。计算设备400可以包括但不仅限于处理器401和存储器402。本领域技术人员可以理解,图4仅仅是计算设备400的示例,并不构成对计算设备400的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如,计算设备还可以包括输入输出设备、网络接入设备、总线等。
处理器401可以是中央处理单元(Central Processing Unit,CPU),也可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器402可以是计算设备400的内部存储单元,例如,计算设备400的硬盘或内存。存储器402也可以是计算设备400的外部存储设备,例如,计算设备400上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,存储器402还可以既包括计算设备400的内部存储单元也包括外部存储设备。存储器402用于存储计算机程序以及计算设备所需的其它程序和数据。存储器402还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述***中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本公开的范围。
在本公开所提供的实施例中,应该理解到,所揭露的装置/计算设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/计算设备实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本公开实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可以存储在计算机可读存储介质中,该计算机程序在被处理器执行时,可以实现上述各个方法实施例的步骤。计算机程序可以包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如,在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上实施例仅用以说明本公开的技术方案,而非对其限制;尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本公开各实施例技术方案的精神和范围,均应包含在本公开的保护范围之内。
Claims (7)
1.一种引领机器人语音信息的生成方法,其特征在于,包括:
在引领机器人检测到有来访者需要引领帮助时,获取所述来访者的语音信号;
识别所述语音信号的语言类型;
基于所述语言类型,确定所述引领机器人的应答语音信号的生成方式,所述生成方式包括本地方式和服务器方式;
基于所述生成方式生成与所述来访者的语言类型对应的应答语音信号,并在所述引领机器人上播放所述应答语音信号;
所述获取所述来访者的语音信号,包括:
若在预设时间内未接收到语音信号,则在所述引领机器人的显示屏幕上显示信息输入界面,并提示所述来访者在所述信息输入界面上输入想要查询的目标地点;
所述识别所述语音信号的语言类型,包括:
基于所述来访者在所述信息输入界面上输入的引领信息确定应答所述引领信息的语言类型;
所述基于所述语言类型,确定所述引领机器人的应答语音信号的生成方式,包括:检测所述语音信号的语言类型是否为默认语言类型;
若是,则确定以本地方式生成所述引领机器人的应答语音信号,其中,在所述本地方式下,直接在所述引领机器人上生成应答来访者的所述应答语音信号;
若不是,则确定以服务器方式生成所述引领机器人的应答语音信号,其中在所述服务器方式下,由所述服务器生成应对来访者的所述应答语音信号。
2.根据权利要求1所述的方法,其特征在于,在确定以本地方式生成所述引领机器人的应答语音信号的情况下,所述基于所述生成方式生成与所述来访者的语言类型对应的应答语音信号,包括:
对所述来访者的语音信号进行识别,得到所述语音识别的翻译信息;
将所述翻译信息输入预先训练的导航应答模型,得到所述导航应答模型输出的应答信息;
基于所述应答信息生成默认语言类型的应答语音信号。
3.根据权利要求1所述的方法,其特征在于,在确定以服务器方式生成所述引领机器人的应答语音信号的情况下,所述基于所述生成方式生成与所述来访者的语言类型对应的应答语音信号,包括:
将所述来访者的语音信号发送至服务器,请求所述服务器生成与所述来访者的语音信号的语言类型一致的应答语音信号,所述服务器与所述引领机器人网络连接;
接收所述服务器返回的应答语音信号。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述识别所述语音信号的语言类型,包括:在无法识别出所述语音信号的语言类型的情况下,控制所述引领机器人开启远程视频窗口,由人工通过所述远程视频窗口与所述来访者进行视频通话。
5.一种引领机器人语音信息的生成装置,其特征在于,包括:
语音获取模块,被配置为在引领机器人检测到有来访者需要引领帮助时,获取所述来访者的语音信号;
所述语音获取模块被配置为,若在预设时间内未接收到语音信号,则在所述引领机器人的显示屏幕上显示信息输入界面,并提示所述来访者在所述信息输入界面上输入想要查询的目标地点;
语音识别模块,被配置为识别所述语音信号的语言类型;
所述语音识别模块被配置为,基于所述来访者在所述信息输入界面上输入的引领信息确定应答所述引领信息的语言类型;
方式确认模块,被配置为基于所述语言类型,确定所述引领机器人的应答语音信号的生成方式,所述生成方式包括本地方式和服务器方式;
所述方式确认模块具体被配置为,检测所述语音信号的语言类型是否为默认语言类型,若是,则确定以本地方式生成所述引领机器人的应答语音信号,其中,在所述本地方式下,直接在所述引领机器人上生成应答来访者的所述应答语音信号,若不是,则确定以服务器方式生成所述引领机器人的应答语音信号,其中在所述服务器方式下,由所述服务器生成应对来访者的所述应答语音信号;
语音生成模块,被配置为基于所述生成方式生成与所述来访者的语言类型对应的应答语音信号,并在所述引领机器人上播放所述应答语音信号。
6.一种引领机器人,包括扬声器、显示器和计算设备,所述计算设备分别与扬声器和显示器连接,所述计算设备包括存储器、处理器以及存储在所述存储器中并且可以在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至4中任一项所述方法的步骤。
7.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至4中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111506393.XA CN114179083B (zh) | 2021-12-10 | 2021-12-10 | 一种引领机器人语音信息的生成方法、装置和引领机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111506393.XA CN114179083B (zh) | 2021-12-10 | 2021-12-10 | 一种引领机器人语音信息的生成方法、装置和引领机器人 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114179083A CN114179083A (zh) | 2022-03-15 |
CN114179083B true CN114179083B (zh) | 2024-03-15 |
Family
ID=80543087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111506393.XA Active CN114179083B (zh) | 2021-12-10 | 2021-12-10 | 一种引领机器人语音信息的生成方法、装置和引领机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114179083B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104598443A (zh) * | 2013-10-31 | 2015-05-06 | 腾讯科技(深圳)有限公司 | 语言服务提供方法、装置及*** |
CN105068661A (zh) * | 2015-09-07 | 2015-11-18 | 百度在线网络技术(北京)有限公司 | 基于人工智能的人机交互方法和*** |
CN108182098A (zh) * | 2017-12-07 | 2018-06-19 | 北京康力优蓝机器人科技有限公司 | 接待语言选择方法、***及接待机器人 |
CN109416701A (zh) * | 2016-04-26 | 2019-03-01 | 泰康机器人公司 | 多种交互人格的机器人 |
CN110019683A (zh) * | 2017-12-29 | 2019-07-16 | 同方威视技术股份有限公司 | 智能语音交互机器人及其语音交互方法 |
CN110473531A (zh) * | 2019-09-05 | 2019-11-19 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置、电子设备、***及存储介质 |
CN112860064A (zh) * | 2021-02-03 | 2021-05-28 | 华南师范大学 | 一种基于ai技术的智能互动***及设备 |
CN113627196A (zh) * | 2021-07-21 | 2021-11-09 | 前海企保科技(深圳)有限公司 | 一种基于语境和Transformer的多语言对话机器人***及其对话方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107515862A (zh) * | 2017-09-01 | 2017-12-26 | 北京百度网讯科技有限公司 | 语音翻译方法、装置及服务器 |
-
2021
- 2021-12-10 CN CN202111506393.XA patent/CN114179083B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104598443A (zh) * | 2013-10-31 | 2015-05-06 | 腾讯科技(深圳)有限公司 | 语言服务提供方法、装置及*** |
CN105068661A (zh) * | 2015-09-07 | 2015-11-18 | 百度在线网络技术(北京)有限公司 | 基于人工智能的人机交互方法和*** |
CN109416701A (zh) * | 2016-04-26 | 2019-03-01 | 泰康机器人公司 | 多种交互人格的机器人 |
CN108182098A (zh) * | 2017-12-07 | 2018-06-19 | 北京康力优蓝机器人科技有限公司 | 接待语言选择方法、***及接待机器人 |
CN110019683A (zh) * | 2017-12-29 | 2019-07-16 | 同方威视技术股份有限公司 | 智能语音交互机器人及其语音交互方法 |
CN110473531A (zh) * | 2019-09-05 | 2019-11-19 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置、电子设备、***及存储介质 |
CN112860064A (zh) * | 2021-02-03 | 2021-05-28 | 华南师范大学 | 一种基于ai技术的智能互动***及设备 |
CN113627196A (zh) * | 2021-07-21 | 2021-11-09 | 前海企保科技(深圳)有限公司 | 一种基于语境和Transformer的多语言对话机器人***及其对话方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114179083A (zh) | 2022-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102458805B1 (ko) | 장치에 대한 다중 사용자 인증 | |
CN111095892B (zh) | 电子装置及其控制方法 | |
JP2021021955A (ja) | 声紋の作成・登録の方法及び装置 | |
CN109065053B (zh) | 用于处理信息的方法和装置 | |
CN109993150B (zh) | 用于识别年龄的方法和装置 | |
US20220139389A1 (en) | Speech Interaction Method and Apparatus, Computer Readable Storage Medium and Electronic Device | |
KR20170033722A (ko) | 사용자의 발화 처리 장치 및 방법과, 음성 대화 관리 장치 | |
KR102170088B1 (ko) | 인공지능 기반 자동 응답 방법 및 시스템 | |
CN111737987B (zh) | 意图识别方法、装置、设备及存储介质 | |
CN109712610A (zh) | 用于识别语音的方法和装置 | |
CN107844470B (zh) | 一种语音数据处理方法及其设备 | |
CN111462726B (zh) | 一种外呼应答方法、装置、设备及介质 | |
CN110223694B (zh) | 语音处理方法、***和装置 | |
CN111400463B (zh) | 对话响应方法、装置、设备和介质 | |
US20240021194A1 (en) | Voice interaction method and apparatus | |
CN114179083B (zh) | 一种引领机器人语音信息的生成方法、装置和引领机器人 | |
CN117275476A (zh) | 数字人的交互方法、装置、电子设备及存储介质 | |
CN112242143B (zh) | 一种语音交互方法、装置、终端设备及存储介质 | |
CN110335237B (zh) | 用于生成模型的方法、装置和用于识别图像的方法、装置 | |
CN112309387A (zh) | 用于处理信息的方法和装置 | |
CN113763925B (zh) | 语音识别方法、装置、计算机设备及存储介质 | |
CN112002325B (zh) | 多语种语音交互方法和装置 | |
CN109712606A (zh) | 一种信息获取方法、装置、设备及存储介质 | |
CN111770236B (zh) | 一种对话处理方法、装置、***、服务器和存储介质 | |
CN111556096B (zh) | 信息推送方法、装置、介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: Room 702, 7th floor, NO.67, Beisihuan West Road, Haidian District, Beijing 100089 Applicant after: Beijing Yunji Technology Co.,Ltd. Address before: Room 702, 7th floor, NO.67, Beisihuan West Road, Haidian District, Beijing 100089 Applicant before: BEIJING YUNJI TECHNOLOGY Co.,Ltd. |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |