CN110998718A - 信息处理设备和信息处理方法 - Google Patents

信息处理设备和信息处理方法 Download PDF

Info

Publication number
CN110998718A
CN110998718A CN201880048424.1A CN201880048424A CN110998718A CN 110998718 A CN110998718 A CN 110998718A CN 201880048424 A CN201880048424 A CN 201880048424A CN 110998718 A CN110998718 A CN 110998718A
Authority
CN
China
Prior art keywords
user
information
certainty factor
voice
schedule
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201880048424.1A
Other languages
English (en)
Inventor
东山惠祐
大村淳己
小川浩明
西川加奈
栗屋志伸
鹤田泰士
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN110998718A publication Critical patent/CN110998718A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/84Detection of presence or absence of voice signals for discriminating voice from noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Telephonic Communication Services (AREA)
  • User Interface Of Digital Computer (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本技术涉及一种能够在交互式语音***中向用户提供具有适当信息量的回应的信息处理设备和信息处理方法。所述信息处理设备包括处理单元,所述处理单元根据为用户估计的置信因子,针对用户期望的信息来调整用于回应的信息量。因此,可以在交互式语音***中向用户提供具有适当信息量的回应。本技术可应用于例如交互式语音***。

Description

信息处理设备和信息处理方法
技术领域
本技术涉及一种信息处理器和一种信息处理方法,尤其涉及一种使语音交互***能够向用户呈现具有适当信息量的回应的信息处理器和信息处理方法。
背景技术
在用户通过语音交互***执行信息的获取或确认的情况下,语音交互***通常选择并执行对应于用户语音意图的应用程序API(应用编程接口),并将由此获得的结果作为回应文本呈现给用户。
例如,作为语音交互***,公开了一种根据***侧的确定性因子切换回应的语音交互***(例如,参见PTL1)。
引用列表
专利文献
PTL 1:日本未审查专利申请公开号2011-54088
发明内容
本发明要解决的问题
顺便提及,一般的语音交互***通常在相同的规则下为相同的API调用生成回应。因此,语音交互***在任何给定时间返回包括相同信息量的回应,而不管用户对用户期望的信息有多确定。
因此,即使在用户仅希望确认用户知道的信息是否正确的情况下,语音交互***也做出包括***知道的所有信息等的回应。这可能导致用户期望的信息量和从语音交互***输出的信息量之间的矛盾,从而导致缺乏顺利通信。
根据这种情况而产生本技术,并且使语音交互***能够向用户呈现具有适当信息量的回应。
解决问题的方法
本技术的一个方面的信息处理器是一种信息处理器,包括处理单元,所述处理单元根据为期望信息估计的用户自己的确定性因子,调整对用户的期望信息的回应的信息量。
本技术方面的信息处理器可以是独立的设备或包含在单个设备中的内部块。
本技术的一个方面的信息处理方法是一种信息处理器的信息处理方法,所述信息处理方法包括由信息处理器根据为期望信息估计的用户自己的确定性因子,调整对用户的期望信息的回应的信息量的步骤。
在本技术的各个方面的信息处理器和信息处理方法中,根据为用户期望的信息估计的用户自身的确定性因子,来调整对用户的期望信息的回应的信息量。
本发明的效果
根据本技术的一个方面,在语音交互***中,有可能向用户呈现具有适当信息量的回应。
应当注意,此处描述的效果不一定是限制性的,并且可以提供本公开中描述的任何效果。
附图说明
图1是示出通用语音交互***的配置的框图;
图2是示出应用本技术的语音交互***的实施方式的配置示例的框图;
图3是示出语音交互***的配置示例的框图;
图4是示出语音处理设备的配置示例的框图;
图5是示出服务器的配置示例的框图;
图6是示出时间表DB的示例的示图;
图7是示出用户的确定性因子和***回应的信息量的关系的示例的示图;
图8是示出应用本技术的语音交互***的另一配置示例的框图;
图9是示出时间表DB的示例的示图;
图10是示出用户的确定性因子和***回应中的信息量的关系的示例的示图;
图11是示出应用本技术的语音交互***的另一配置示例的框图;
图12是示出通用文本聊天***的配置的框图;
图13是示出应用本技术的语音交互***的配置的第一变型例的框图;
图14是示出应用本技术的语音交互***的配置的第二变型例的框图;
图15是示出应用本技术的语音交互***的配置的第三变型例的框图;
图16是示出用户的确定性因子和***回应中的信息量的关系的第一变型例的示图;
图17是示出用户的确定性因子和***回应中的信息量的关系的第二变型例的示图;
图18是示出用户的确定性因子和***回应中的信息量的关系的第三变型例的示图;
图19是示出用户的确定性因子和***回应中的信息量的关系的第四变型例的示图;
图20是描述语音交互处理的流程图;
图21是示出计算机的配置示例的示图。
具体实施方式
下面参考附图描述本技术的实施方式。应当注意,按照以下顺序给出描述。
1.***配置
2.本技术的实施方式
(1)第一实施方式:基本形式
(1-1)用户确定性因子高的情况
(1-2)用户确定性因子中等的情况。
(1-3)用户确定性因子低的情况
(1-4)虽然用户的确定性因子似乎很高,但事实上并不正确的情况
(1-5)实际上不正确的情况下有多个选择时
(2)第二实施方式:时间表的目标人员不同于说话者的情况
(2-1)用户自己对另一个人的时间表的确定性因子高的情况
(2-2)用户自己对另一个人的时间表的确定性因子中等的情况
(2-3)用户自己对另一个人的时间表的确定性因子低的情况
(3)第三实施方式:利用传感器信息的情况
3.变型例
4.语音交互处理流程
5.计算机的配置
<1.***配置>
(通用语音交互***的配置)
图1是示出通用语音交互***的配置的框图。
在图1中,通用语音交互***1包括语音识别单元101、用户意图分析单元102、交互控制单元103、API调用单元104和输出生成单元105。
语音识别单元101将输入到语音识别单元101的用户语音数据转换成语音文本数据,并将语音文本数据提供给用户意图分析单元102。
用户意图分析单元102处理从语音识别单元101提供的文本数据,以分析用户意图,并且向交互控制单元103提供指示作为分析结果获得的用户意图的候选的数据(以下称为用户意图候选数据)。
基于从用户意图分析单元102等提供的用户意图候选数据,交互控制单元103估计当前交互状态,并确定要调用的API及其参数。交互控制单元103向API调用单元104提供指示要调用的API和API的参数的数据(以下称为API和参数数据)。
API调用单元104将参数传递给要调用的API,并基于从交互控制单元103提供的API和参数数据来执行API。API调用单元104将通过执行API获得的结果作为API输出提供给输出生成单元105。
输出生成单元105基于从API调用单元104提供的API输出,生成对用户的回应文本(以下称为***回应),并输出与其语音数据相对应的回应语音。
通用语音交互***1如上所述配置。
在此处,通用语音交互***1(图1)执行相同的API调用,并通过相同的方法使用API调用的结果来执行回应生成,而不管用户对用户希望确认的时间表内容的确定程度(确定性因子)如何。因此,在任何给定时间都会获得包含相同信息量的回应。
因此,在用户希望执行简单确认的情况下和用户希望确认时间表细节的情况下,获得相同的回应。
因此,即使在用户希望执行简单确认的情况下,也可以获得具有大量信息的回应,这可能会减慢交互的速度并导致缺乏顺利通信。类似地,即使在用户期望大量信息的情况下,语音交互***也可能不会根据语音交互***的实现返回详细信息。这使得寻求更多信息需要额外的交互,并且可能导致缺乏顺利通信。
因此,在应用本技术的语音交互***中,通过估计用户自己关于用户期望的信息(期望信息)的确定性因子,并根据估计结果控制回应生成中包括的信息量,可以向用户呈现具有适当信息量的回应,从而允许实现更顺利通信。在下文中,描述应用本技术的语音交互***的配置。
(本技术的语音交互***的配置)
图2是示出应用本技术的语音交互***的实施方式的配置示例的框图。
在图2中,语音交互***2包括语音识别单元201、用户意图和确定性因子分析单元202、交互控制单元203、API调用单元204和输出生成单元205。
通过参考语音到文本转换数据库,语音识别单元201将输入到其中的用户语音数据转换成语音文本数据。语音识别单元201将对应于用户语音的语音文本数据提供给用户意图和确定性因子分析单元202。
在此处,从获取从用户输出的语音的语音处理设备(例如,稍后将描述的图3中的语音处理设备10)发送用户语音数据。此外,在语音到文本转换数据库中累积了巨大的语音识别数据库。通过使用预定的识别算法,语音识别单元201能够将输入到其中的用户语音数据(语音数据)转换成语音文本数据(文本数据)。
用户意图和确定性因子分析单元202对从语音识别单元201提供的语音文本数据执行分析处理。用户意图和确定性因子分析单元202包括用户意图分析部211和用户确定性因子估计部212。
用户意图分析部211通过对从语音识别单元201提供的语音文本数据执行分析处理来分析用户意图。用户意图分析部211将获得的用户意图候选数据作为分析结果提供给交互控制单元203。
用户确定性因子估计部212通过对从语音识别单元201提供的语音文本数据执行分析处理来估计用户的确定性因子。用户确定性因子估计部212向交互控制单元203提供指示获得的用户确定性因子的数据(以下称为用户确定性因子数据)作为估计结果。
基于从用户意图和确定性因子分析单元202、交互历史数据库等提供的用户意图候选数据,交互控制单元203估计当前交互状态,并确定要调用的API和API的参数。应当注意,交互历史数据库累积关于过去的交互历史等的信息。
交互控制单元203将确定的API和参数数据提供给API调用单元204。此外,交互控制单元203将用户确定性因子数据提供给输出生成单元205。
API调用单元204将API的参数传递给要调用的API,并基于从交互控制单元203提供的API和参数数据来执行API。API调用单元204向输出生成单元205提供通过执行API获得的结果,作为API输出。
在此处,要调用的API是对应于用户意图的API。例如,在用户的意图涉及检查时间表的情况下,调用并执行用于执行时间表检查的API(以下也称为时间表API)。
向输出生成单元205输入来自交互控制单元203的用户确定性因子数据和来自API调用单元204的API输出数据。
基于用户确定性因子数据和API输出数据,输出生成单元205向用户生成回应文本(***回应),并输出对应于回应文本的语音数据的回应语音。然而,在此处,当生成***回应时,根据用户的确定性因子来控制(调整)要包括在回应文本中的信息量。
例如,在表示用户确定性因子的值超过预定阈值的情况下,确定用户确定性因子高,并且生成更紧凑的***回应。这使得可以仅呈现用户期望的信息。相反,例如,在表示用户确定性因子的值等于或低于预定阈值的情况下,确定用户确定性因子低,并且生成包括更详细信息的***回应。这使得可以在一次交互中向用户适当地呈现用户期望的信息。
如上所述配置语音交互***2。
顺便提及,由语音交互***2提供的语音交互服务包括将语音识别处理、自然语言处理等结合起来的服务,以适当地回应或作用于例如通过口语提出的询问或请求。
为了实现这种语音交互服务,例如,可以配置如图3所示的语音交互***2。即,可以使语音交互***2包括安装在客户端侧并用作语音交互服务的用户界面的语音处理设备10以及安装在诸如数据中心等服务器侧并执行用于实现语音交互功能的处理的服务器20。
在语音交互***2中,语音处理设备10和服务器20经由互联网30彼此耦合。
语音处理设备10例如是可耦合到诸如家庭LAN(局域网)等网络的扬声器,并且也被称为所谓的智能扬声器等。除了音乐播放之外,这种类型的扬声器还允许在诸如照明设备、空调等装置上进行语音驱动操作。
应当注意,语音处理设备10不限于扬声器,还可以被配置为移动装置,例如,智能电话或移动电话、平板型计算机等。
语音处理设备10能够通过经由互联网30与服务器20链接来向用户提供语音交互服务(的用户界面)。
即,语音处理设备10获取从用户生成的语音(用户语音),并经由互联网30将其语音数据发送到服务器20。此外,语音处理设备10经由互联网接收从服务器20发送的处理后的数据,并输出对应于处理后的数据的语音。
服务器20是提供基于云的语音交互服务的服务器。服务器20执行语音识别处理,用于将经由互联网30从语音处理设备10发送的语音数据转换成文本数据。此外,服务器20对文本数据执行诸如对应于用户意图的交互处理之类的处理,并经由互联网30将作为处理结果获得的处理数据发送到语音处理设备10。
(语音处理设备的配置)
图4是示出图3的语音处理设备10的配置示例的框图。
在图4中,语音处理设备10包括处理单元51、麦克风52、扬声器53、传感器54和通信I/F 55。
处理单元51包括例如CPU(中央处理单元)、微处理器等。处理单元51通过执行各种类型的算术处理、各个单元的操作控制等,作为语音处理设备10中的中央处理器进行操作。
麦克风52是将来自外部的声音转换成电信号的装置(声音拾取装置)。麦克风52将通过转换获得的语音信号提供给处理单元51。
扬声器53是将电信号转换成物理振动以产生声音的装置。扬声器53输出对应于从处理单元51提供的语音信号的声音。
传感器54包括各种类型的传感器。传感器54执行感测并将对应于感测结果的传感器信息(传感器数据)提供给处理单元51。
例如,作为传感器54,可以包括各种传感器,例如,执行对象成像的图像传感器、检测磁场(磁化场)的大小或方向的磁传感器、检测加速度的加速度传感器、检测角度(轮廓)、角速度或角加速度的陀螺仪传感器、检测相邻对象的接近传感器、或者检测生物信息(例如,指纹、虹膜、脉冲等)的生物传感器。
此外,传感器54还可以包括用于测量周围环境的传感器,例如,检测温度的温度传感器、检测湿度的湿度传感器、检测周围亮度的环境光传感器等。应当注意,传感器数据可以包括诸如从CPS(全球定位***)信号计算的位置信息(位置数据)等信息、由计时装置计时的时间信息等。
通信I/F 55包括例如通信接口电路等。通信I/F 55遵循来自处理单元51的控制,以获得对耦合到互联网30的服务器20的访问,并交换各种类型的数据。
在此处,在由从语音识别单元201到配置语音交互***2(图2)的输出生成单元205的单元提供的功能中,例如,处理单元51具有将用户语音数据输入到语音识别单元201的功能和输出对应于***回应(的语音数据)的回应语音的功能。
即,处理单元51处理从麦克风52提供的语音信号,并将作为处理结果获得的语音数据提供给通信I/F 55。由此,用户语音数据(语音数据)经由互联网30传输到服务器20,并输入到语音识别单元201。此外,处理单元51能够将传感器数据提供给通信I/F 55,以经由互联网30将传感器数据发送给服务器20。
此外,处理单元51处理从通信I/F 55提供的语音数据,并将作为处理结果获得的语音信号提供给扬声器53。由此,从扬声器53输出对应于***回应(的语音数据)的回应语音。
应当注意,用于显示各种类型的信息(例如,字符、图像等)的显示单元、从用户接收操作的输入单元、保存各种类型的数据(例如,语音数据、文本数据等)的存储单元等可以进一步设置在语音处理设备10中,尽管这些单元没有在图4中示出。
在此处,例如,显示单元包括例如液晶显示器、有机EL显示器等。例如,输入单元包括按钮、键盘等。此外,输入单元可以被配置为触摸传感器和显示单元集成在其中的触摸面板,并且可以通过用户的手指或触摸笔(手写笔)获得对应于操作的操作信号。存储单元包括作为非易失性存储器类型的闪存(闪存)、作为易失性存储器类型的DRAM(动态随机存取存储器)等。
(服务器的配置)
图5是示出图3的服务器20的配置示例的框图。
在图5中,服务器20包括处理单元71、通信I/F 72和数据库73。
例如,处理单元71包括CPU、微处理器等。处理单元71通过执行各种类型的算术处理或对各个单元的操作的控制,作为服务器20中的中央处理器进行操作。
例如,通信I/F 72包括通信接口电路等。根据来自处理单元71的控制,通信I/F 72与经由互联网30耦合的语音处理设备10交换各种类型的数据。
数据库73被配置为大容量存储设备,例如,硬盘(HDD:硬盘驱动器)、半导体存储器、光盘等。
例如,数据库73包括用于执行语音识别处理的语音识别数据库、用于执行交互处理的交互历史数据库等。应当注意,语音识别数据库或交互历史数据库是数据库的示例,并且可以包括实现语音交互服务所必需的数据库(例如,知识数据库、语音数据库等)。
在此处,在由从语音识别单元201到配置语音交互***2(图1)的输出生成单元205的单元提供的功能中,例如,处理单元71具有语音识别单元201、用户意图和确定性因子分析单元202、交互控制单元203、API调用单元204和输出生成单元205的一些功能。
即,参考数据库73中包括的语音识别数据库,处理单元71执行语音识别处理,用于将经由互联网30从语音处理设备10发送的用户语音数据(语音数据)转换成语音文本(文本数据)。
此外,使用在语音识别处理中获得的语音文本,当执行对应于用户意图的交互处理时,处理单元71执行估计用户期望的信息的用户自身的确定性因子的处理以及根据处理结果控制(调整)包括在回应生成中的信息量的处理。由此,生成包括适当信息量的***回应,作为对用户的回应文本,并且作为处理后的数据经由互联网30发送到语音处理设备10。
应当注意,为了描述方便,尽管示出了在图3的语音交互***2中提供一个语音处理设备10的情况,但是例如可以为各个用户提供多个语音处理设备10。
此外,尽管示出了在图3的语音交互***2中提供一个服务器20的情况,但是例如可以为各个功能(模块)提供多个服务器20。更具体地,可以提供具有与语音识别单元201相关联的语音识别模块的服务器20、具有与交互控制单元203相关联的交互控制模块的服务器20等,作为单独的服务器20。
<2.本技术的实施方式>
(1)第一实施方式
在下文中,给出由语音交互***2提供的语音交互服务的具体示例的描述。在此处,阐述用于执行时间表检查的语音交互,作为示例。该示例的假设是用户已经登记了图6所示的时间表。
在图6中,登记两个时间表,作为由标题、日期和时间、位置和目标人员指定的时间表。即,在第一记录中,2017年3月23日上午10点在主会议室的会议被登记为父亲(爸爸)的时间表。此外,在第二记录中,2017年3月23日下午5点在涩谷购物的时间表被登记为爸爸的时间表。
应当注意,关于这些时间表的信息已经登记在服务器20的数据库73(图5)中,作为存储在时间表数据库(以下称为时间表DB)中的信息。
此处假设用户已于2017年3月22日与语音交互***2通话。因此,图6所示的时间表被登记为用户和语音交互***2的明天的时间表。
还假设,在语音交互***2中,用于执行时间表检查的API(应用编程接口)具有例如如下所列的四个参数。
时间表API(pram1、pram2、pram3、pram4)
第一参数:标题
第二参数:日期和时间
第三参数:位置
第四参数:目标人员
在下面的具体示例中,用户执行与具有这样的时间表DB和时间表API的语音交互***2的交互,目的是执行已经登记的时间表的检查。然而,在以下具体示例中,为了比较,还适当地给出了通用语音交互***1(图1)的描述。
(1-1)用户确定性因子高的情况
在此处,假设这样一种情况,尽管用户知道明天上午10点有会议,作为他自己的时间表,但是用户只是希望检查时间表是否正确。在这种情况下,假设用户已经说过,例如,“我明天上午10点有会议安排,不是吗?”
此时,在通用语音交互***1(图1)中,估计用户的意图是“时间表检查”,其参数是“标题=“会议””和“日期和时间=“2017年3月23日上午10点””。参数传递给执行时间表检查的时间表API。
在执行该时间表API的情况下,作为API输出,可以获得在时间表DB中登记的时间表中存在一条记录,包括“标题=“会议””、“日期和时间=“2017年3月23日上午10点””和“地点=“主会议室””。
然后,作为***回应,例如,获得“明天上午10点有会议安排。地点是主会议室”。
然而,此时,用户自己知道用户明天上午10点有会议安排,只是希望检查该信息是否正确。然而,此处获得的***回应模仿了用户已经知道的信息,并且被用户不必要的许多信息占据。
因此,尽管原本只需要简单回应的通信就足够了,但是用户必须收听具有大量信息的回应。这导致了交互速度的降低,即,通信的顺畅。
相反,在应用本技术的语音交互***2(图2)中,基于从用户语音获得的信息,估计用户自己对用户期望的信息(期望信息)的确定程度(确定性因子),并且控制(调整)回应中的信息量。
在前面提到的示例中,因为语音“我明天上午10点有一个会议安排,不是吗?”明确表示“标题=“会议””和“日期和时间=“2017年3月23日上午10点””,该信息没有包括表示歧义的词,例如,“也许”或“我想”等,所以可以估计标题的确定性因子以及该时间表的日期和时间很高。
因此,例如,通过省略用户已经知道的信息(具有高确定性因子的信息)并使***回应紧凑(例如,“是”),可以仅提供用户期望的信息,这允许以良好的速度继续交互。
应当注意,在上述示例中,尽管语音不包括指示位置的内容,但是位置信息可能不包括在***回应中,因为关于标题以及日期和时间的确定性因子高,并且该时间表是用户自己的时间表,并且可以估计用户已经知道该位置。
例如,在用户确定性因子高的情况下,由图2的语音交互***2执行的处理的内容如下。
即,用户语音数据的声音是“我明天上午10点有一个会议安排,不是吗?”,由语音处理设备10(图3)获取,并输入到语音识别单元201。语音识别单元201执行语音识别处理,并将用户语音数据转换成语音文本数据。
用户意图分析部211对如此获得的语音文本数据执行分析处理,并且由此获得用户意图的候选。此外,用户确定性因子估计部212对语音文本数据执行分析处理,从而获得用户的确定性因子。此处估计时间表标题或日期和时间的确定性因子高,因为准确地指示时间表标题或数据和时间,并且不包括表示信息歧义的单词。
交互控制单元203基于用户意图候选数据、交互历史数据库等来估计当前交互状态,并确定要调用的API和API的参数。在此处,确定了根据用户语音数据执行时间表检查的时间表API以及“标题=“会议””和“日期和时间=“2017年3月23日上午10点””,作为时间表API的参数。因此,API调用单元204将其参数(标题、日期和时间)传递给要调用的时间表API,并执行该API。
尽管在输出生成单元205中,作为API输出,获得了在时间表DB中登记的时间表中存在一个相关记录,但是生成了更紧凑的***回应,因为估计时间表标题或日期和时间的确定性因子与用户的确定性因子一样高。
在此处,如图7所示,例如,在用户的确定性因子和***回应中的信息量之间存在关系。在图7中,函数f1表示用户确定性因子和回应中的信息量之间的关系,其中,横轴表示用户确定性因子,纵轴表示***回应中的信息量(回应信息量)。
在图7中,函数f1具有反比例关系,其中,用户确定性因子越高,回应信息量越小,而用户确定性因子越低,回应信息量越大。此处假设,例如,阈值(Th1和Th2)被设置为使得等于或高于75的分数表示高确定性因子,小于25的分数表示低确定性因子,并且等于或高于25且小于75的分数表示中等确定性因子。
此时,例如,在计算确定性因子的分数为85的情况下,估计时间表标题或日期和时间的确定性因子高,并且作为紧凑***回应,输出对具有高确定性因子的信息的回应,例如,“是”。
(1-2)用户确定性因子中等的情况
此处假设,尽管用户知道用户明天有某个安排,但是用户不确定日期和时间。在这种情况下,例如,假设用户说,“我认为是明天。会议安排好了吗?”。
此时,在通用语音交互***1(图1)中,估计用户的意图是“时间表检查”,其参数是“标题=“会议””和“日期和时间=“2017年3月23日上午10点””,并且参数被传递到时间表API。
在执行该时间表API的情况下,作为API输出,获得了在时间表DB中登记的时间表中存在一个相关记录,包括“标题=“会议””、“日期和时间=“2017年3月23日上午10点””以及“地点=“主会议室””。
然后,作为***回应,例如,获得“明天上午10点有会议安排。地点是主会议室”。要注意的是,在通用语音交互***1(图1)中,该***回应的内容类似于在前面描述的另一示例中的对语音的回应的内容:“我明天上午10点有会议安排,不是吗?”。
然而,此时,用户自己只需能够确认会议是否安排在明天,而无需寻求所有详细信息。因此,在通用语音交互***1(图1)中获得的***回应中,该回应信息过载,这减慢了通信的速度。
相反,在应用本技术的语音交互***2(图2)中,可以从用户语音数据“我认为是明天”中估计日期和时间的确定性因子是中等的,因为日期和时间是“明天”,但是不包括时间信息,或者因为日期和时间被措辞“我认为”修饰。此外,至于标题,用户清楚地说了“会议”,因此可以估计确定性因子高。
因此,通过省略具有高确定性因子的标题,并包括更多关于中等确定性因子的日期和时间的细节,可以生成简单的***回应,例如,“是的,会议将在明天上午10点举行”。
在用户确定性因子为中等的这种情况下,例如,由图2的语音交互***2执行的处理的内容如下。
即,用户确定性因子估计部212对语音文本数据“我认为是明天,会议安排好了吗?”执行分析处理,从而获得用户的确定性因子。此处估计确定性因子是中等的,因为不包括关于预定日期和时间的时间信息,或者语音被表示歧义的词修饰。此外,估计时间表标题的确定性因子高,因为准确地指示时间表标题。
然后,在输出生成单元205中,作为API输出,获得在时间表DB中登记的时间表中存在一个相关记录。然而,作为用户的确定性因子,尽管时间表标题的确定性因子高,但是估计预定日期和时间的确定性因子是中等的。因此,生成包括关于具有中等确定性因子的日期和时间的详细信息的简单***回应。
在此处,在用户的确定性因子和***回应中的信息量之间存在关系的情况下,例如,图7所示的函数f1,例如,当确定性因子的分数为70时,估计预定日期和时间的确定性因子是中等的。然后,作为简单的***回应,输出回应,例如,“是的,会议将在明天上午10点举行”,包括关于具有中等确定性因子的预定日期和时间的详细信息。
(1-3)用户确定性因子低的情况
此处假设用户不知道用户明天是否有安排。在这种情况下,例如,假设用户已经说过,“我明天有什么安排?”。
此时,在通用语音交互***1(图1)中,用户的意图是“时间表检查”,并且估计其参数是“日期和时间=“2017年3月23日””,并且该参数传递到时间表API。
在执行该时间表API的情况下,作为API输出,可以获得在时间表DB中登记的时间表中存在两个记录,包括“标题=“会议””、“日期和时间=“2017年3月23日上午10点””以及“地点=“主会议室””的记录和包括“标题=“购物””、“日期和时间=“2017年3月23日下午5点””以及“地点=“涩谷””的记录。
然后,作为***回应,例如,获得“明天上午10点在主会议室有会议安排,下午5点在涩谷有购物安排”。
相反,在应用本技术的语音交互***2(图2)中,估计标题的确定性因子低,因为关于时间表标题的信息不包括在用户的语音中,并且询问“什么”,而不包括具体的名称。此外,关于日期和时间,可以估计确定性因子是中等的,因为没有指定时间,尽管指定了“明天”。
因此,可以生成***回应,包括关于标题以及日期和时间的详细信息,例如,“明天上午10点有会议安排,下午5点有购物安排”。以这种方式,在确定性因子低的情况下发布更多信息,允许用户在一次交互中适当地获得用户期望的信息,并且使得不需要添加额外交互。因此,可以进行速度良好的交互。
例如,在用户确定性因子低的情况下,由图2的语音交互***2执行的处理的内容如下。
即,用户确定性因子估计部212对语音文本数据“我明天有什么安排?”执行分析处理,从而获得用户的确定性因子。此处估计,由于未包括具体的名称,所以关于时间表标题的确定性因子低。此外,估计预定日期和时间的确定性因子是中等的,因为不包括时间信息。
然后,在输出生成单元205中,作为API输出,获得在时间表DB中登记的时间表中存在两个相关记录。然而,作为用户的确定性因子,估计时间表标题的确定性因子低,而预定日期和时间的确定性因子中等。因此,生成包括关于具有低确定性因子的标题的更详细信息的***回应。
此处估计,在用户的确定性因子和***回应中的信息量之间存在关系的情况下,例如,图7所示的函数f1,例如,当计算确定性因子的分数为17时,估计时间表标题的确定性因子低。然后,作为详细的***回应,输出回应,例如,“明天上午10点有会议安排,下午5点有购物安排”,包括关于具有低确定性因子的时间表标题的更详细信息。
(1-4)虽然用户的确定性因子似乎很高,但事实上并不正确的情况
此处假设用户确定的内容有错误的情况。在这种情况下,例如,假设用户说,“我后天上午10点有一个会议安排,不是吗?”。
此时,在通用语音交互***1(图1)中,估计用户的意图是“时间表检查”,并且其参数是“标题=“会议””和“日期和时间=“2017年3月24日上午10点””,并且这些参数传递到时间表API。
在执行该时间表API的情况下,作为API输出,可以获得零时间表,因为在时间表DB中登记的时间表中不存在包含此类内容的记录。然后,作为***回应,例如,获得“没有这样的时间表”。
相反,在应用本技术的语音交互***2(图2)中,可以估计时间表标题以及日期和时间的确定性因子高,因为类似于(1-1)“用户确定性因子高的情况”,清楚地指示“标题=“会议””和“日期和时间=“2017年3月24日上午10点””,或者信息中不包括表示歧义的单词,例如“也许”或“我认为”。
此外,在此处,可以估计日期和时间的用户确定性因子是不正确的,因为通过执行具有指定时间表标题以及日期和时间(作为参数)的时间表API而获得的API输出是零时间表。
因此,可以添加正确的信息并生成***回应,例如,“不,会议在明天上午10点举行”。这使得用户可以在一次交互中获得用户期望的信息,而不用说话,来再次确认正确的信息。
(1-5)实际上不正确的情况下有多个选择时
在上述(1-4)中,示出了生成对语音“我后天上午10点有会议安排,不是吗?”的***回应“不,会议在明天上午10点举行”的示例,然而,假设难以添加正确的信息,因为对于一些用户来说,在时间表DB中登记多个会议安排。
在这种情况下,例如,用户侧的语音处理设备10能够启动日历应用,以每月或每周呈现多个登记的会议安排。此时,语音处理设备10可以仅呈现语音中包括的接近“后天”的时间表,而不是呈现所有登记的时间表。
这允许用户确认日历的呈现内容,并识别用户的语音内容不正确,例如,用户将时间表误认为另一会议安排,或者用户忘记了会议安排在后天上午10点的登记。此时,可以了解用户的倾向(例如,某个用户经常忘记时间表的登记等),并且可以在随后日历的呈现内容中考虑该倾向。
应当注意,尽管示出了在上述(1-1)确定性因子高的情况下或者在(1-2)确定性因子中等的情况下输出更紧凑的***回应的情况,但是只要执行良好速度的交互,***回应中的信息量可以增加。例如,作为前述(1-1)的***回应,除了“是的”,还可以通过添加回应的后一部分来输出更详细的***回应,例如,“是的,明天上午10点将有会议,”。
(2)第二实施方式
在上述第一实施方式中,给出了时间表目标人员和通过交互确认时间表的用户是同一个人的情况的描述。然而,在下文中,作为第二实施方式,给出了这些人不同的情况的描述。
(本技术的语音交互***的配置)
图8是示出应用本技术的语音交互***的另一配置示例的框图。
在图8中,语音交互***3包括语音识别单元301、用户意图和确定性因子分析单元302、交互控制单元303、API调用单元304、输出生成单元305和说话者识别单元306。
在图8中,从语音识别单元301到输出生成单元305的单元类似于图2所示的从语音识别单元201到输出生成单元205的单元来配置。即,与图2的语音交互***2相比,图8的语音交互***3的不同之处在于,说话者识别单元306添加到用户意图和确定性因子分析单元302的前一级。
说话者识别单元306通过参考说话者识别数据库并分析输入到其中的用户语音数据来识别说话者。说话者识别单元306识别分配给被识别的说话者的用户ID,并将用户ID提供给用户意图和确定性因子分析单元302。
应当注意,在说话者识别数据库中,例如,对于每个说话者,预先登记将语音数据与用户ID相关联的信息。此外,在此处,尽管例示了说话者识别单元306基于用户语音数据识别说话者的情况,但是用于识别说话者的数据不限于用户语音数据,并且例如,也可以使用受传感器54成像的对象的图像数据等。
用户意图和确定性因子分析单元302将用户ID、用户意图候选数据和用户确定性因子数据提供给交互控制单元303。交互控制单元303基于用户意图候选数据、交互历史数据库等来估计当前交互状态并确定要调用的API及其参数。交互控制单元303将确定的API和参数数据提供给API调用单元304。
此外,交互控制单元303将用户确定性因子数据提供给输出生成单元305。在此处,例如,通过使用用户ID,识别出已经说话的用户不同于时间表目标人员。因此,交互控制单元303将另一个人的时间表的确定性因子数据作为用户确定性因子数据传递给输出生成单元305。
输出生成单元305基于用户确定性因子数据和API输出数据生成对用户的回应文本(***回应),并输出对应于语音数据的回应语音。在此处,尽管根据另一个人的时间表的确定性因子来控制(调整)***回应中的信息量,但是与自己的时间表的情况相比,可以增加回应中的信息量,因为通过交互来检查时间表的人是不同的。
在下文中,给出由语音交互***3提供的语音交互服务的具体示例的描述。此处假设某个家族共享并使用单个调度器,并且图9中列出的时间表已经被用户登记在时间表DB中。交互还假设父亲(爸爸)确认母亲(妈妈)的时间表。
在图9中,五个时间表被登记为由标题、日期和时间、位置和目标人员识别的时间表。即,2017年3月23日上午10点在主会议室举行的会议在第一记录中被登记为爸爸的时间表。此外,2017年3月23日上午10点在新宿购物在第二记录中被登记为妈妈的时间表。
此外,2017年3月23日下午3点,Yoyogi的一名牙医在第三记录中被登记为爸爸的时间表。此外,2017年3月23日下午5点在涩谷购物在第四记录中被登记为爸爸的时间表。此外,2017年3月23日下午5点在原宿举行的校友聚会在第五记录中被登记为妈妈的时间表。
在以下具体示例中,假设用户在具有这样的时间表DB和时间表API的语音交互***3上执行交互,其意图是确认已经登记的时间表。然而,在下面的具体示例中,为了比较,还适当地给出了通用语音交互***1(图1)的描述。
(2-1)用户自己对另一个人的时间表的确定性因子高的情况
此处假设,尽管用户(爸爸)知道妈妈的校友聚会安排在明天下午5点,但是用户(爸爸)希望确认是否正确。在这种情况下,例如,假设用户(爸爸)说,“妈妈在明天下午5点有校友聚会安排,不是吗?”。
此时,在通用语音交互***1(图1)中,估计用户的意图是“时间表检查”,并且其参数是“标题=“校友聚会””、“日期和时间=2017年3月23日下午5点”和“目标人员=“妈妈””。这些参数传递给执行时间表检查的时间表API。
在执行该时间表API的情况下,作为API输出,获得在时间表DB中登记的时间表中存在一条记录,包括“标题=“校友聚会””、“日期和时间=2017年3月23日下午5点”、“目标人员=“妈妈””和“位置=“原宿””。
然后,获得***回应,例如,“明天下午5点有原宿校友聚会安排”。
相反,在应用本技术的语音交互***3(图8)中,基于从用户语音获得的信息,估计用户对用户期望的信息(期望信息)的确定程度(确定性因子),并且根据估计结果控制(调整)回应中的信息量。
在上述示例中,因为用户语音清楚地指示时间表标题、日期和时间以及目标人员,或者限定他们的词语不包括表示歧义的词语,例如,“也许”或“我认为”,所以估计其确定性因子高。
因此,生成和输出紧凑的***回应(例如,“是”)使得可以进行良好速度的交互。
然而,因为没有关于时间表位置的讲话,所以不可能确定关于该位置的确定性因子高。在这个示例中,特别地,因为说话的用户(爸爸)不同于时间表的目标人员(妈妈),所以认为很难假设用户(爸爸)预先知道位置。
因此,例如,最好在***回应中添加位置信息,例如,“是的,有安排。地点是原宿”。
例如,在用户自己关于另一个人的时间表的确定性因子高的情况下,由图8的语音交互***3执行的处理内容如下。
即,用户确定性因子估计部312对语音文本数据“妈妈明天下午5点有校友聚会安排,不是吗?”执行分析处理,并且由此获得关于另一个人的时间表的用户确定性因子。此处,估计时间表标题、日期和时间以及目标人员的确定性因子高,因为清楚地指示时间表标题、日期和时间以及目标人员或者不包括表示歧义的单词。
然后,在输出生成单元305中,尽管作为API输出,获得了在时间表DB中登记的时间表中存在一个相关记录,但是生成更紧凑的***回应,因为作为关于另一个人的时间表的用户确定性因子,估计关于时间表标题、日期和时间以及目标人员的确定性因子高。
在此处,例如,如图10所示,例如,在用户的确定性因子和***回应中的信息量之间存在关系。类似于图7,尽管图10示出了与作为横轴的用户确定性因子和作为纵轴的***回应中的信息量的关系,但是在自己时间表的情况下的关系由函数f1表示,而在其他人时间表的情况下的关系由函数f2表示。
即,在图10中,函数f1和函数f2具有相同的倾斜度。函数f1和函数f2的共同之处在于函数f1和函数f2具有反比例关系,即尽管用户确定性因子越低,回应信息量越大,但是用户确定性因子越高,回应信息量越小。然而,截距不同,并且如果确定性因子相同,函数f2具有比函数f1的回应信息量更大的回应信息量。
换言之,另一个人的时间表并不比自己的时间表更容易理解。因此,即使在相同的确定性因子下,回应信息量也会在自己的时间表和另一个人的时间表之间发生变化。
此处假设阈值(Th1和Th2)被设置为使得等于或高于75的分数表示高确定性因子,小于25的分数表示低确定性因子,并且等于或高于25且小于75的分数表示中等确定性因子。
此时,例如,当计算确定性因子为90的分数时,估计关于时间表标题、日期和时间以及目标人员的确定性因子高,并且可以输出诸如“是”等回应,作为紧凑***回应。然而,例如,因为涉及另一个人的时间表,所以期望通过添加位置信息等来增加回应信息量,例如,作为“是的,有安排。地点是原宿”。
(2-2)用户自己对另一个人的时间表的确定性因子中等的情况
此处假设一种情况,尽管用户(爸爸)知道妈妈明天有某个安排,但是用户(爸爸)不确定时间表的日期和时间或者内容。在这种情况下,例如,假设用户(爸爸)说,“我认为妈妈明天去购物,不是吗?”。
此时,在通用语音交互***1(图1)中,估计用户的意图是“时间表检查”,其参数是“标题=“购物””、“日期和时间=“2017年3月23日””和“目标人员=“妈妈””。这些参数传递给时间表API。
在执行该时间表API的情况下,作为API输出,可以获得在时间表API中登记的时间表中存在一条记录,包括“标题=“购物””、“日期和时间=“2017年3月23日上午10点””、“位置=“新宿”和“目标人员=“妈妈””。
然后,获得***回应,例如“明天上午10点有去新宿购物的安排”。
相反,在应用本技术的语音交互***3(图8)中,可以估计关于日期和时间的确定性因子低,因为用户的语音不包括时间信息,此外,“明天”被“我认为”修饰。也可以估计关于标题的确定性因子中等,因为用户的语音包括“妈妈明天去购物,不是吗?”。因为没有关于该位置的语音,所以也可以估计关于该位置的确定性因子低。
因此,可以返回包含具有低确定性因子的信息的回应,例如,“明天上午10点有去新宿购物的安排”。这允许用户立即获得用户期望的信息,并实现顺利通信。
在用户自己关于另一个人的时间表的确定性因子是中等的这种情况下,例如,要由图8的语音交互***3执行的处理的内容如下。
即,用户确定性因子估计部312对语音文本数据“我认为妈妈明天去购物,不是吗?”执行分析处理,并且由此获得关于另一个人的时间表的用户确定性因子。此处估计关于日期和时间的确定性因子低,因为时间表的日期和时间不包括时间信息,被表示歧义的词语等修改。此外,由于包括在用户语音中的表达,估计关于标题的确定性因子中等。
然后,在输出生成单元305中,尽管作为API输出,获得了在时间表DB中登记的时间表中存在相关的一条记录,但是生成了包括关于具有中等确定性因子的标题和具有低确定性因子的日期和时间的详细信息的***回应,因为估计作为关于另一个人的时间表的确定性因子,关于时间表的日期和时间的确定性因子低,而关于时间表标题的确定性因子中等。
在此处,在关于另一个人的时间表的用户确定性因子和***回应中的信息量之间存在关系的情况下,例如,图10所示的函数f2,当计算确定性因子的分数为60时,估计关于时间表标题的确定性因子中等,并且输出诸如“明天上午10点有去新宿购物的安排”等回应,该回应包括关于具有中等确定性因子的时间表标题的详细信息。然而,在此处,因为时间表是另一个人的,所以通过添加位置信息“新宿”,来增加回应信息量。
(2-3)用户自己对另一个人的时间表的确定性因子低的情况
此处假设用户(爸爸)不知道妈妈的时间表。在这种情况下,例如,假设用户已经说过,“妈妈明天有什么安排吗?”。
此时,在通用语音交互***1(图1)中,估计用户的意图是“时间表检查”,其参数是“日期和时间=“2017年3月23日””和“目标人员=“妈妈””。些参数传递给时间表API。
在执行该时间表API的情况下,作为API输出,获得在时间表DB中登记的时间表中存在两个记录,一个记录包括包括“标题=“购物””、“日期和时间=2017年3月23日上午10点”、“位置=“原宿””和“目标人员=“妈妈””,另一记录包括“标题=“校友聚会””、“日期和时间=2017年3月23日下午5点”、“位置=“原宿””和“目标人员=“妈妈””。
然后,获得***回应,例如“明天上午10点在新宿有购物安排,下午5点在原宿有校友聚会安排”。
相反,在应用本技术的语音交互***3(图8)中,可以估计关于时间表标题、日期和时间以及位置的确定性因子低。
因此,例如,像“明天上午10点在新宿有购物安排,下午5点在原宿有校友聚会安排”一样,通过以用户的低确定性因子向信息呈现特定信息,用户可以立即获得用户期望的信息,并且可以实现顺利通信。
例如,在关于另一个人的时间表的用户确定性因子低的情况下,由图8中的语音交互***3执行的处理的内容如下。
即,用户确定性因子估计部312对语音文本数据“妈妈明天有安排吗?”执行分析处理,由此获得关于另一个人的时间表的用户确定性因子。此处假设关于时间表标题、日期和时间以及位置的确定性因子低。
然后,在输出生成单元305中,尽管作为API输出,获得在时间表DB中登记的时间表中存在相关的两个记录,但是生成包括更详细信息的***回应,因为估计作为关于另一个人的时间表的用户确定性因子,关于时间表标题、日期和时间以及位置的确定性因子低。
在此处,例如,在关于另一个人的时间表的用户确定性因子和***回应中的信息量之间存在关系的情况下,例如,图10所示的函数f2,当计算确定性因子的分数为21时,估计时间表标题、日期和时间以及位置的确定性因子低。然后,输出包括更详细信息的回应,例如,“明天上午10点在新宿有购物安排,下午5点在原宿有校友聚会安排”。
应当注意的是,在此处引用的两个示例(情况(2-2)和(2-3))中,由应用本技术的通用语音交互***1(图1)和语音交互***3(图8)做出的***回应没有很大差异。其中一个原因是,作为另一个人的时间表,不允许获取关于位置信息的隐含确定性,这不可避免地降低了用户确定性因子的等级,并且均衡了最初输出更多信息的一般方法输出的信息量和根据用户确定性因子调整信息量的本技术方法输出的信息量。
应当注意,在另一个人的时间表的这种情况下,用户确定性因子的等级变得低于在自己的时间表的情况下的确定性因子。因此,通过图10中示出的函数f1和函数f2的关系也很明显,回应信息量增加了。
(3)第三实施方式
如上所述,关于估计确定性因子的方法,可以使用诸如目标信息是否清楚地包括在用户的语音中、是否执行了用表示歧义的单词修饰、或者该信息是否是已经说话的用户的信息之类的指标。
相反,通过基于关系情况的学习,可以获得用户意图和确定性因子之间的关系。即,可以利用例如其他语音信息、手势、视线、面部表情等以及语音文本。
(本技术的语音交互***的配置)
图11是示出应用本技术的语音交互***的另一配置示例的框图。
在图11中,语音交互***4包括语音识别单元401、用户意图和确定性因子分析单元402、交互控制单元403、API调用单元404、输出生成单元405、说话者识别单元406、手势识别单元407、视线识别单元408、面部取向识别单元409和用户位置识别单元410。
在图11中,从语音识别单元401到输出生成单元405的单元与图2所示的从语音识别单元201到输出生成单元205的单元类似地配置。此外,说话者识别单元406类似于图8所示的说话者识别单元306配置。
即,与图2的语音交互***2和图8的语音交互***3相比,图11的语音交互***4的不同之处在于,手势识别单元407、视线识别单元408、面部取向识别单元409和用户位置识别单元410被添加到用户意图和确定性因子分析单元402的前一级。
应当注意,例如,向手势识别单元407、视线识别单元408、面部取向识别单元409和用户位置识别单元410输入由设置在语音处理设备10(图4)中的传感器54检测到的传感器信息(传感器数据)。
手势识别单元407通过使用向其输入的传感器数据执行手势识别处理来识别用户的手势,并将识别结果提供给用户意图和确定性因子分析单元402。此处使用的传感器数据例如是从各种传感器获得的信息,例如,专用于检测用户手势的传感器或者用于获取包括用户作为对象的图像数据的图像传感器。
视线识别单元408通过使用输入到视线识别单元408的传感器数据执行视线识别处理来识别用户的视线,并将识别结果提供给用户意图和确定性因子分析单元402。此处使用的传感器数据例如是从各种传感器获得的信息,例如,专用于检测用户视线的传感器或用于获取包括用户作为对象的图像数据的图像传感器。
面部取向识别单元409通过使用输入到其中的传感器数据执行面部取向识别处理来识别用户面部的取向,并将识别结果提供给用户意图和确定性因子分析单元402。此处使用的传感器数据例如是从各种传感器获得的信息,例如,专用于检测用户面部方向的传感器或者用于获取包括用户作为对象的图像数据的图像传感器。
用户位置识别单元410通过使用输入到其中的传感器位置信息执行位置识别处理来识别用户位置,并将识别结果提供给用户意图和确定性因子分析单元402。此处使用的传感器数据例如是从各种传感器获得的信息,例如,专用于检测用户位置的传感器(例如,GPS模型等)或者用于获取包括允许识别用户位置的对象的图像数据的图像传感器。
来自手势识别单元407、视线识别单元408、面部取向识别单元409和用户位置识别单元410的识别结果与来自语音识别单元401的语音文本数据和来自说话者识别单元406的用户ID一起输入到用户意图和确定性因子分析单元402。用户意图和确定性因子分析单元402包括用户意图和分析部分411和用户确定性因子估计部412。
当对语音文本数据执行分析处理,以估计用户确定性因子时,用户确定性因子估计部412基于从传感器数据获得的识别结果来考虑用户的行为,以使得能够获得用户确定性因子。在此处,例如,在下面列出的趋势被视为用户行为的情况下,假设用户行为对应于用户确定性因子应当降低的情况。
(a)说话速度变慢。
(b)说话的声音变高。
(c)视线未确定。
(d)用户直接靠近语音交互***(语音处理设备10)。
(e)用户将他/她的脸转向语音交互***(语音处理设备10)的方向。
(f)双臂的手势动作变大。
(g)用户正在打哈欠。
在例如上述从(a)到(g)的趋势被视为用户的行为的这种情况下,添加估计其确定性因子低的算法使得可以提高用户确定性因子的估计的准确性。此外,可以基于通过依次记录关于用户行为的行为数据并通过使用该行为数据(的历史)来执行学习而获得的趋势,来估计确定性因子。
应当注意,用户的行为可以是任何行为,只要基于从传感器54获得的传感器数据来识别该行为。例如,除了关于温度传感器检测到的温度或湿度传感器检测到的湿度的信息之外,可以通过利用由计时装置计时的时间信息等来识别用户的行为。例如,在使用时间信息并且用户在清晨打哈欠的情况下,可以确定所述确定性因子低,诸如此类。
如上所述,已经对第一实施方式至第三实施方式进行了描述。使用这些实施方式中阐述的方法,允许用户以适当的量获得用户期望的信息,从而使得可以实现良好速度的顺利通信。
应当注意,上述PTL 1公开了一种方法,其中,***根据***分析用户的语音意图时的结果的***本身的确定性因子切换回应,作为根据***侧的确定性因子切换回应的***,作为语音交互***。然而,在这种方法中,没有机制来估计用户的确定程度。因此,即使在用户确定性因子低的情况下或者在确定性因子高的情况下,当***本身的确定性因子相等时,也生成具有相同信息量的回应。这不能像前述实施方式中阐述的方法那样实现良好速度的顺利通信。
<3.变型例>
在上述描述中,已经给出了服务器20的处理单元71的描述,在由从语音识别单元201到输出生成单元205的单元提供的功能中,该处理单元71具有语音识别单元201、用户意图和确定性因子分析单元202、交互控制单元203、API调用单元204和输出生成单元205的一些功能。然而,处理单元71只需要具有由从语音识别单元201到输出生成单元205的单元提供的功能的至少一些功能。
此外,已经给出了语音处理设备10的处理单元51的描述,在由包括的从语音识别单元201到输出生成单元205的单元提供的功能中,处理单元51具有将用户语音数据输入到语音识别单元201的功能和输出对应于***回应(的语音数据)的回应语音的功能。然而,处理单元51只需要具有由从语音识别单元201到输出生成单元205的单元提供的功能的至少一些功能。
即,在由从语音识别单元201到输出生成单元205的单元提供的功能中,除了服务器20的处理单元71具有的功能之外的功能是语音处理设备10的处理单元51具有的功能。
然而,语音处理设备10的处理单元51可以具有由从语音识别单元201到输出生成单元205的单元提供的所有功能,并且语音交互***的功能可以仅由语音处理设备10实现。然后,数据库73可以构建在语音处理设备10中,或者可以由服务器20通过互联网30提供。
此外,尽管在上述描述中,已经给出了图2的输出生成单元205(图8的输出生成单元305和图11的输出生成单元405)使用用户的确定性因子来控制(调整)回应中的信息量的情况的描述,但是另一模块可以使用用户的确定性因子来执行回应中信息量的控制。
现在,参考图12至图14,接下来给出应用本技术的语音交互***的配置的变型例的描述。应当注意,为了比较,还给出了通用文本聊天***的描述。
(通用文本聊天***的配置)
图12是示出通用文本聊天***的配置的框图。
在图12中,通用文本聊天***6包括用户意图分析单元602、交互控制单元603、API调用单元604和输出生成单元605。
通过文本聊天向用户意图分析单元602提供用户输入的文本数据。用户意图分析单元602处理文本数据,以分析用户意图,并将作为分析结果获得的用户意图候选数据提供给交互控制单元603。
交互控制单元603基于从用户意图分析单元602等提供的用户意图候选数据来估计当前交互状态,并确定要调用的API及其参数。交互控制单元603将API和参数数据提供给API调用单元604。
基于从交互控制单元603提供的API和参数数据,API调用单元604将参数传递给要调用的API,执行API,并将作为执行结果获得的API输出提供给输出生成单元605。
输出生成单元605基于从API调用单元604提供的API输出,输出对应于文本数据或图像数据的信息,作为***回应。
通用文本聊天***6如上所述配置。在此处,在本技术的语音交互***(例如,图2的语音交互***2)中,向用户意图和确定性因子分析单元202输入文本聊天的文本数据,而不是语音文本数据,并且也可以执行与语音文本数据的处理类似的处理。在这种情况下,输出生成单元205输出对应于文本数据或图像数据的信息,作为***回应。应当注意,此时,在图2的语音交互***2中,语音识别单元201是不必要的。
(本技术的语音交互***的配置的第一变型例)
图13是示出应用本技术的语音交互***的第一变型例的框图。
在图13中,语音交互***7包括语音识别单元701、用户意图和确定性因子分析单元702、交互控制单元703、API调用单元704和输出生成单元705。
在图13中,语音识别单元701、用户意图和确定性因子分析单元702和API调用单元704类似于图2所示的语音识别单元201、用户意图和确定性因子分析单元202和API调用单元204来配置。
即,与图2的语音交互***2相比,图13的语音交互***7在交互控制单元703和输出生成单元705的功能上不同。
具体地,当基于用户意图候选数据和交互历史数据库来估计当前交互状态并确定要调用的API及其参数时,交互控制单元703使用用户确定性因子数据来选择最佳API。然而,此时,可选择的API根据回应中的信息量而不同,并且选择可获得具有对应于用户确定性因子的信息量的回应的API。
基于从交互控制单元703提供的API和参数数据,API调用单元704将参数传递给要调用的API并执行该API。
输出生成单元705基于从API调用单元704提供的API输出数据生成***回应,并输出对应于该语音数据的回应语音。然而,在交互控制单元703中,使用用户确定性因子数据选择最佳API,并且已经调整了要包括在回应文本中的信息量。因此,没有必要在此处调整信息量。
语音交互***7如上所述配置。
(本技术的语音交互***的配置的第二变型例)
图14是示出应用本技术的语音交互***的第二变型例的框图。
在图14中,语音交互***8包括语音识别单元801、用户意图和确定性因子分析单元802、交互控制单元803、API调用单元804和输出生成单元805。
在图14中,语音识别单元801和用户意图和确定性因子分析单元802类似于图2所示的语音识别单元201和用户意图和确定性因子分析单元202配置。
即,与图2的语音交互***2相比,图14的语音交互***8在交互控制单元803、API调用单元804和输出生成单元805的功能上不同。
具体地,交互控制单元803基于用户意图候选数据、交互历史数据库等来估计当前交互状态,并确定要调用的API及其参数。交互控制单元803将API和参数数据提供给API调用单元804。
基于从交互控制单元803提供的API和参数数据,API调用单元804将参数传递给要调用的API,执行API,并将作为执行结果获得的API输出返回给交互控制单元803。
基于用户确定性因子数据和API输出数据,交互控制单元803生成输出,对于该输出,调整要包括在回应文本中的信息量,并且将该输出提供给输出生成单元805。
在此处,可以生成和输出对用户的***回应本身,或者可以仅输出生成***回应所必需的信息,并且在后一阶段,可以将***回应的生成留给输出生成单元805。
输出生成单元805基于来自交互控制单元803的输出,输出对应于***回应的回应语音。然而,如前所述,可以在输出生成单元805一侧生成***回应。
语音交互***8如上所述配置。
同时,在语音交互***2(图2)中,尽管已经描述了用户语音数据直接输入到语音识别单元201的情况,但是在处理之后,用户语音数据可以输入到语音识别单元201。然后,在下文中,参考图15,给出对用户语音数据执行预处理的配置的描述。
(本技术的语音交互***的配置的第三变型例)
图15是示出应用本技术的语音交互***的第三变型例的框图。
在图15中,语音交互***2包括语音识别单元201、用户意图和确定性因子分析单元202、交互控制单元203、API调用单元204、输出生成单元205和预处理单元221。
在图15中,从语音识别单元201到输出生成单元205的单元与图2所示的从语音识别单元201到输出生成单元205的单元类似地配置。即,与图2的语音交互***2相比,图15的语音交互***2的不同之处在于,预处理单元221添加到语音识别单元201的前一级。
预处理单元221例如对输入到其中的语音信号执行诸如回声消除或噪声去除等信号处理,并将作为信号处理结果获得的用户语音数据提供给语音识别单元201。
在此处,例如,语音处理设备10具有麦克风52和扬声器53。因此,麦克风52可能从扬声器53拾取声音。因此,通过执行诸如回声消除等信号处理,可以仅获得用户语音数据。更具体地,在语音处理设备10播放音乐的情况下,作为用户语音数据,获得语音信号,作为从其中移除从扬声器53输出的音乐并且被麦克风52获取的语音信号。
应当注意,虽然预处理单元221基本上具有语音处理设备10的处理单元51具有的功能,但是预处理单元221可以具有服务器20的处理单元71具有的功能。在这种情况下,语音处理设备10经由互联网30向服务器20发送语音信号,由此在服务器20侧执行对语音信号的信号处理。
语音交互***2如上所述配置。
顺便提及,在上述描述中,如图7和图10所示,尽管已经给出在用户的确定性因子和***回应中的信息量之间存在反比例关系的描述,但是该关系是一个示例,例如,如果存在线性或非线性关系(例如,反比关系等)就足够了。
然后,在下文中,参考图16至图19,给出用户确定性因子和***回应中信息量的关系的变型例的描述。应当注意,可以根据预定算法来计算这些关系,或者可以手动定义这些关系。此外,可以应用使用为每个用户累积的数据的机器学习。
(确定性因子和回应信息量的第一变型例)
图16是示出用户的确定性因子和***回应中信息量的关系的第一变型例的示图。
应当注意,类似于图7和图10,图16示出了用户确定性因子和回应信息量的关系,其中,横轴表示用户确定性因子,纵轴表示***回应中的信息量(回应信息量)。这也适用于稍后描述的图17至图19。
在图16中,函数f3具有反比关系,其中,用户确定性因子越高,回应信息量越小,而用户确定性因子越低,回应信息量越大。
在此处,可以设置阈值(Th1和Th2),使得例如等于或高于75的分数表示高确定性因子,小于25的分数表示低确定性因子,等于或高于25且小于75的分数表示中等确定性因子。
(确定性因子与回应信息量的关系的第二变型例)
图17是示出用户的确定性因子和***回应中信息量的关系的第二变型例的示图。
在图17中,函数f4具有阶梯状关系,其中,用户确定性因子越高,回应信息量越小,而用户确定性因子越低,回应信息量越大。
在此处,通过将例如Th1=25和Th2=75设置为阈值,等于或高于75的分数表示高确定性因子,小于25的分数表示低确定性因子,等于或高于25且小于75的分数表示中等确定性因子。然而,回应信息量是对于高确定性因子、中等确定性因子和低确定性因子中的每一个的特定信息量,因为函数f4具有阶梯状关系。
(确定性因子与回应信息量的关系的第三变型例)
图18是示出用户的确定性因子和***回应中信息量的关系的第三变型例的示图。
在图18中,函数f5具有弓形关系,其中,用户确定性因子越高,回应信息量越小,而用户确定性因子越低,回应信息量越大。
在此处,通过将例如Th1=25和Th2=75设置为阈值,等于或高于75的分数表示高确定性因子,小于25的分数表示低确定性因子,等于或高于25且小于75的分数表示中等确定性因子。然而,对于高确定性因子、中等确定性因子和低确定性因子中的每一个,回应信息量缓慢变化,因为函数f5具有弓形关系。
(确定性因子和回应信息量的第四变型例)
图19是示出用户的确定性因子和***回应中的信息量之间的关系的第四变型例的示图。
在图19中,函数f6具有S形关系,其中,用户确定性因子越高,回应信息量越小,而用户确定性因子越低,回应信息量越大。
在此处,通过将例如Th1=25和Th2=75设置为阈值,等于或高于75的分数表示高确定性因子,小于25的分数表示低确定性因子,等于或高于25且小于75的分数表示中等确定性因子。然而,对于高确定性因子、中等确定性因子和低确定性因子中的每一个,回应信息量缓慢变化,因为函数f6具有弓形关系。
要注意的是,尽管图16至图19没有清楚地说明,类似于图10的关系,但是当函数f3(函数f4、f5和f6)表示在自己的时间表的情况下的关系时,另一个人的时间表的关系是由于将函数f3(函数f4、f5和f6)向右移动而产生的关系。因此,如果确定性因子相等,则对于表示另一个人的时间表的函数,回应信息量大于表示自己时间表的函数f3(函数f4、f5和f6)就足够了。
即,另一个人的时间表不比自己的时间表更容易理解。因此,即使在相同的确定性因子下,也可以在自己的时间表和另一个人的时间表之间改变回应信息量。
(API的其他示例)
在上述描述中,尽管作为示例,已经给出了将执行时间表检查的时间表API描述为对应于用户意图(意图)的API,但是也可以类似地应用其他API,例如,检查新闻或天气的API、播放音乐的API等。例如,可以通过由语音处理设备10或服务器20执行的应用程序调用这些API。此外,在上述描述中,通过示例,已经描述了标题、日期和时间、位置和目标人员,作为时间表API的参数(入口)。然而,某些参数可能会被删除或添加另一参数(例如,登记人)。
(确定性因子的分数的示例)
此外,例如,可以为每个用户的语音或者用户语音中包括的每个单词计算确定性因子的分数。例如,作为用户语音中包括的单词,可以计算与诸如标题、日期和时间、位置或目标人员之类的参数对应的每个单词的确定性因子的分数。或者,例如,可以计算和计算与诸如标题或日期和时间等参数对应的每个单词的确定性因子的分数。在此处计算时,例如,可以确定所述确定性因子的分数的总值、平均值、最大值等。
<4.语音交互处理的流程>
在下文中,参考图20的流程图,作为语音交互处理的示例,给出由语音交互***2(图2)执行的语音交互处理的流程的描述。
应当注意,在图20的流程图中示出的处理步骤中,步骤S11至S13由语音处理设备10的处理单元51执行(图4),步骤S21至S27的处理由服务器20的处理单元71执行(图5)。
在步骤S11中,在用户进行语音的情况下,处理单元51经由麦克风52接收用户的语音。在此处,例如,接收用户的语音,例如,“我明天上午10点有会议安排,不是吗?”或者“我认为是明天。会议安排好了吗?”。
在步骤S12中,通信I/F 55经由互联网30将在步骤S11的处理中接收的用户语音数据发送到服务器20。
从语音处理设备10发送的用户语音数据由服务器20的通信I/F 72接收,并且在服务器20中执行步骤S21至S27的处理。
在步骤S21中,处理单元71的语音识别单元201通过参考语音到文本转换数据库来执行语音识别处理,并将从语音处理设备10接收的用户语音数据转换成语音文本数据。
在步骤S22中,处理单元71的用户意图分析部211基于在步骤S21的处理中获得的语音文本数据执行用户意图分析处理。
在步骤S23中,处理单元71的用户确定性因子估计部212基于在步骤S21的处理中获得的语音文本数据执行用户确定性因子估计处理。
在步骤S24中,处理单元71的交互控制单元203基于在步骤S22的处理中获得的用户意图候选数据和交互历史数据库等来估计当前交互状态,并确定要调用的API及其参数。
在步骤S25中,基于在步骤S24的处理中获得的API和参数数据,处理单元71的API调用单元204将参数传递给要调用的API(例如,时间表API)并执行该API。
在步骤S26中,基于在步骤S23的处理中获得的用户确定性因子数据和在步骤S25的处理中获得的API输出,处理单元71的输出生成单元205生成***回应,根据用户确定性因子来控制(调整)包括在回应文本中的信息量。
在步骤S27中,通信I/F 72经由互联网30将在步骤S26的处理中获得的***回应发送到语音处理设备10。
从服务器20发送的经处理的数据(***回应的数据)由语音处理设备10的通信I/F55接收,并且在语音处理设备10中执行步骤S13的处理。
在步骤S13中,处理单元51的输出生成单元205从扬声器53输出对应于从服务器20接收的***回应的回应语音。在此处,例如,输出紧凑回应语音,其信息量对应于用户的确定性因子,例如“是”、“是的,在明天上午10点”等。应当注意,根据用户确定性因子控制(调整)包括在回应文本中的信息量的处理也可以由客户端侧的处理单元51的输出生成单元205(例如,应用程序)来执行。
如上所述,已经给出了语音交互处理的流程的描述。
<5.计算机的配置>
可以通过硬件或软件执行上述一系列处理(例如,图20所示的语音交互处理)。在一系列处理由软件执行的情况下,配置软件的程序安装在每个设备的计算机中。图21是示出通过程序执行上述一系列处理的计算机硬件的配置示例的框图。
在计算机2000中,CPU(中央处理单元)2001、ROM(只读存储器)2002和RAM(随机存取存储器)2003通过总线2004相互耦合。输入和输出接口2005进一步耦合到总线2004。输入单元2006、输出单元2007、记录单元2008、通信单元2009和驱动器2010耦合到输入和输出接口2005。
输入单元2006包括键盘、鼠标、麦克风等。输出单元2007包括显示器、扬声器等。记录单元2008包括硬盘、非易失性存储器等。通信单元2009包括网络接口等。驱动器2010驱动可移动记录介质2011,例如,磁盘、光盘、磁光盘或半导体存储器。
在如上配置的计算机2000中,由CPU 2001通过经由输入和输出接口2005和总线2004将记录在ROM 2002或记录单元2008中的程序加载到RAM 2003中并执行该程序来执行上述一系列处理。
例如,可以在作为封装介质等的可移动记录介质2011中记录和提供由计算机2000(CPU 2001)执行的程序。也可以通过有线或无线传输介质提供程序,例如,局域网、互联网或数字卫星广播。
在计算机2000中,通过将可移除记录介质2011安装在驱动器2010上,可以经由输入和输出接口2005将程序安装在记录单元2008中。也可以由通信单元2009经由有线或无线传输介质接收程序,并将该程序安装在记录单元2008中。此外,还可以在ROM 2002或记录单元2008中预先安装程序。
在此处,在本说明书中,计算机根据程序执行的处理不一定按照流程图描述的顺序按时间顺序执行。即,计算机根据程序执行的处理还包括并行或单独执行的处理(例如,并行处理或由对象执行的处理)。此外,程序可以由一台计算机(处理器)处理,或者可以由多台计算机以分布式方式处理。
应当注意,本技术的实施方式不限于上述实施方式,并且在不脱离本技术的要点的情况下,可以进行各种改变。例如,本技术可以采用云计算的配置,其中,多个设备经由网络共享并共同处理一个功能。
此外,可以由多个设备共享和执行图20所示的流程图中描述的语音交互处理的各个步骤,并且由一个设备执行各个步骤。此外,在一个步骤包括多个处理的情况下,除了由一个设备执行多个处理之外,还可以由多个设备共享和执行包括在该一个步骤中的多个处理。
应当注意,本技术可以采用如下所述的配置。
(1)一种信息处理器,包括处理单元,所述处理单元根据针对用户的期望信息而估计的用户自身的确定性因子,来调整对期望信息的回应的信息量。
(2)根据上述(1)所述的信息处理器,其中,
基于从用户的语音中获得的信息来估计所述确定性因子,并且
所述回应是对用户语音的回应。
(3)根据上述(1)或(2)所述的信息处理器,其中,基于通过预先学习获得的趋势,从用户行为估计所述确定性因子。
(4)根据上述(1)至(3)中任一项所述的信息处理器,其中,所述确定性因子和包括在所述回应中的信息量的关系是线性或非线性关系。
(5)根据上述(4)所述的信息处理器,其中,所述关系是比例关系或反比关系。
(6)根据上述(1)至(5)中任一项所述的信息处理器,其中,基于从传感器获得的传感器信息来估计所述确定性因子。
(7)根据上述(6)所述的信息处理器,其中,所述传感器信息包括用户的手势识别信息、视线识别信息、面部取向识别信息和位置信息中的至少任一个。
(8)根据上述(1)至(7)中任一项所述的信息处理器,其中,
所述期望信息是关于另一用户的信息,并且
所述确定性因子根据期望信息的目标人员而变化。
(9)根据上述(8)所述的信息处理器,其中,在目标人员是另一用户的情况下,所述确定性因子低于目标人员是用户的情况下的确定性因子。
(10)根据上述(1)至(9)中任一项所述的信息处理器,其中,通过将从期望信息获得的值传递到对应于用户意图的API(应用编程接口)作为参数,并执行所述API,来获得所述回应。
(11)一种信息处理器的信息处理方法,所述信息处理方法包括由信息处理器根据针对用户的期望信息而估计的用户自身的确定性因子,来调整对期望信息的回应的信息量的步骤。
附图标记的描述
2、3、4、7、8语音交互***;10语音处理设备;20服务器;30互联网;51处理单元;52麦克风;53扬声器;54传感器;55通信I/F;71处理单元;72通信I/F;73数据库;201语音识别单元;202用户意图和确定性因子分析单元;203交互控制单元;204API调用单元;205输出生成单元;211用户意图分析部;212用户确定性估计部分;221预处理单元;306说话者识别单元;407手势识别单元;408视线识别单元;409面部取向识别单元;410用户位置识别单元;703交互控制单元;803交互控制单元;2000计算机;2001CPU

Claims (11)

1.一种信息处理器,包括处理单元,所述处理单元根据针对用户的期望信息而估计的用户自身的确定性因子,来调整对期望信息的回应的信息量。
2.根据权利要求1所述的信息处理器,其中,
基于从用户的语音中获得的信息来估计所述确定性因子,并且
所述回应是对用户语音的回应。
3.根据权利要求1所述的信息处理器,其中,基于通过预先学习获得的趋势,从用户行为估计所述确定性因子。
4.根据权利要求1所述的信息处理器,其中,所述确定性因子和包括在所述回应中的信息量的关系是线性或非线性关系。
5.根据权利要求4所述的信息处理器,其中,所述关系是比例关系或反比关系。
6.根据权利要求1所述的信息处理器,其中,基于从传感器获得的传感器信息来估计所述确定性因子。
7.根据权利要求6所述的信息处理器,其中,所述传感器信息至少包括用户的手势识别信息、视线识别信息、面部取向识别信息和位置信息中的任一个。
8.根据权利要求1所述的信息处理器,其中,
所述期望信息是关于另一用户的信息,并且
所述确定性因子根据期望信息的目标人员而变化。
9.根据权利要求8所述的信息处理器,其中,在目标人员是另一用户的情况下,所述确定性因子低于目标人员是用户的情况下的确定性因子。
10.根据权利要求1所述的信息处理器,其中,通过将从期望信息获得的值传递到对应于用户意图的API(应用编程接口)作为参数,并执行所述API,来获得所述回应。
11.一种信息处理器的信息处理方法,所述信息处理方法包括由信息处理器根据针对用户的期望信息而估计的用户自身的确定性因子,来调整对期望信息的回应的信息量的步骤。
CN201880048424.1A 2017-08-01 2018-07-18 信息处理设备和信息处理方法 Withdrawn CN110998718A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017149134 2017-08-01
JP2017-149134 2017-08-01
PCT/JP2018/026824 WO2019026617A1 (ja) 2017-08-01 2018-07-18 情報処理装置、及び情報処理方法

Publications (1)

Publication Number Publication Date
CN110998718A true CN110998718A (zh) 2020-04-10

Family

ID=65232540

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880048424.1A Withdrawn CN110998718A (zh) 2017-08-01 2018-07-18 信息处理设备和信息处理方法

Country Status (5)

Country Link
US (1) US11430437B2 (zh)
EP (1) EP3663935A4 (zh)
JP (1) JP7230804B2 (zh)
CN (1) CN110998718A (zh)
WO (1) WO2019026617A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7522177B2 (ja) 2019-07-12 2024-07-24 クゥアルコム・インコーポレイテッド マルチモーダルユーザインターフェース

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102455199B1 (ko) * 2017-10-27 2022-10-18 엘지전자 주식회사 인공지능 디바이스
WO2019130992A1 (ja) * 2017-12-26 2019-07-04 株式会社Nttドコモ 情報処理装置
WO2020166183A1 (ja) * 2019-02-13 2020-08-20 ソニー株式会社 情報処理装置及び情報処理方法
US11741951B2 (en) * 2019-02-22 2023-08-29 Lenovo (Singapore) Pte. Ltd. Context enabled voice commands
JP7258686B2 (ja) * 2019-07-22 2023-04-17 Tis株式会社 情報処理システム、情報処理方法、及びプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4160462B2 (ja) * 2003-08-18 2008-10-01 株式会社東芝 時系列行動パターンを生成して表示する装置およびプログラム
JP2005199373A (ja) 2004-01-14 2005-07-28 Toshiba Corp コミュニケーション装置及びコミュニケーション方法
JP4075067B2 (ja) * 2004-04-14 2008-04-16 ソニー株式会社 情報処理装置および情報処理方法、並びに、プログラム
JP2008233678A (ja) 2007-03-22 2008-10-02 Honda Motor Co Ltd 音声対話装置、音声対話方法、及び音声対話用プログラム
JP2011054088A (ja) * 2009-09-04 2011-03-17 National Institute Of Information & Communication Technology 情報処理装置、情報処理方法、プログラム及び対話システム
US9760905B2 (en) * 2010-08-02 2017-09-12 Visa International Service Association Systems and methods to optimize media presentations using a camera
KR20140121580A (ko) * 2013-04-08 2014-10-16 한국전자통신연구원 자동 번역 및 통역 장치 및 그 방법
CN105723360A (zh) * 2013-09-25 2016-06-29 英特尔公司 利用情感调节改进自然语言交互
US9753990B2 (en) 2014-03-28 2017-09-05 Microsoft Technology Licensing, Llc Building user trust in profile creation and recommendations based on managed interaction with user
US9715875B2 (en) * 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10614108B2 (en) * 2015-11-10 2020-04-07 International Business Machines Corporation User interface for streaming spoken query
WO2017090115A1 (ja) 2015-11-25 2017-06-01 三菱電機株式会社 音声対話装置および音声対話方法
EP3428917B1 (en) * 2016-03-10 2021-05-19 Sony Corporation Voice processing device and voice processing method
US10956513B2 (en) * 2016-05-27 2021-03-23 International Business Machines Corporation Heuristically programmed artificial intelligence for mainframe operating systems
US10957322B2 (en) * 2016-09-09 2021-03-23 Sony Corporation Speech processing apparatus, information processing apparatus, speech processing method, and information processing method
US10170111B2 (en) * 2017-01-19 2019-01-01 Toyota Motor Engineering & Manufacturing North America, Inc. Adaptive infotainment system based on vehicle surrounding and driver mood and/or behavior
US10467509B2 (en) * 2017-02-14 2019-11-05 Microsoft Technology Licensing, Llc Computationally-efficient human-identifying smart assistant computer

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7522177B2 (ja) 2019-07-12 2024-07-24 クゥアルコム・インコーポレイテッド マルチモーダルユーザインターフェース

Also Published As

Publication number Publication date
JPWO2019026617A1 (ja) 2020-09-10
EP3663935A1 (en) 2020-06-10
US11430437B2 (en) 2022-08-30
WO2019026617A1 (ja) 2019-02-07
JP7230804B2 (ja) 2023-03-01
EP3663935A4 (en) 2020-07-01
US20200152191A1 (en) 2020-05-14

Similar Documents

Publication Publication Date Title
CN110998718A (zh) 信息处理设备和信息处理方法
CN106415719B (zh) 使用说话者识别的语音信号的稳健端点指示
KR102541718B1 (ko) 키 문구 사용자 인식의 증강
US10740057B2 (en) Information processing device, information processing method, and computer program
US20210034192A1 (en) Systems and methods for identifying users of devices and customizing devices to users
TWI412953B (zh) 基於從所捕獲的三維影像流所偵測之使用者行為信號控制文件
CN114556333A (zh) 由助理***启用的智能摄像机
KR20200004359A (ko) 자동으로 액션 그룹을 커스터마이징하도록 구성된 가상 어시스턴트
JP2021533397A (ja) 話者埋め込みと訓練された生成モデルとを使用する話者ダイアライゼーション
JP2020532757A (ja) 複数のコンピューティングデバイスを使用したインターホン式の通信
US20200327890A1 (en) Information processing device and information processing method
US10678941B2 (en) Privacy focused network sensor device object recognition
US10836044B2 (en) Robot control device and robot control method
CN111523850B (zh) 响应于共同存在确定的调用动作
CN110998719A (zh) 信息处理设备和信息处理方法
KR20220017504A (ko) 동적이고 점증적인 얼굴 인식 방법 및 시스템
US20180232643A1 (en) Identifying user engagement based upon emotional state
CN111506183A (zh) 一种智能终端及用户交互方法
US20200402498A1 (en) Information processing apparatus, information processing method, and program
JP7230803B2 (ja) 情報処理装置および情報処理方法
JP6985230B2 (ja) 業務分析サーバ、業務分析方法、および業務分析プログラム
CN112309387A (zh) 用于处理信息的方法和装置
JP2008089825A (ja) 音声認識装置、および音声認識プログラム
US11195336B2 (en) Framework for augmented reality applications
US11430429B2 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20200410