CN111797208A - 对话***,电子设备和用于控制对话***的方法 - Google Patents

对话***,电子设备和用于控制对话***的方法 Download PDF

Info

Publication number
CN111797208A
CN111797208A CN201911231730.1A CN201911231730A CN111797208A CN 111797208 A CN111797208 A CN 111797208A CN 201911231730 A CN201911231730 A CN 201911231730A CN 111797208 A CN111797208 A CN 111797208A
Authority
CN
China
Prior art keywords
user
message
recipient
relationship
emotional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911231730.1A
Other languages
English (en)
Inventor
李廷馣
朴永敏
金宣我
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hyundai Motor Co
Kia Corp
Original Assignee
Hyundai Motor Co
Kia Motors Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hyundai Motor Co, Kia Motors Corp filed Critical Hyundai Motor Co
Publication of CN111797208A publication Critical patent/CN111797208A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • G10L15/07Adaptation to the speaker
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Child & Adolescent Psychology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Information Transfer Between Computers (AREA)
  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

提供了一种对话***,该对话***包括存储装置,被配置为存储关系信息;以及输入处理器,被配置为响应于接收到包括接收者的话语和从用户输入的消息的内容,来收集与消息的内容相关联的上下文信息。对话管理器被配置为:基于关系信息来确定用户与接收者之间的关系,并且基于用户与接收者之间的关系来生成用于将上下文信息转换为句子的含义表示。然后,结果处理器被配置为:基于用户与接收者之间的关系、消息的内容以及含义表示生成发送给接收者的消息。

Description

对话***,电子设备和用于控制对话***的方法
技术领域
本公开涉及一种对话***,以及一种与用户进行对话的电子设备和用于控制对话***的方法。
背景技术
对话***识别用户的语音并提供与所识别的语音对应的服务。对话***提供的服务之一可以是消息传输。当用户请求使用声音发送消息时,对话***根据用户语音的内容将消息发送给接收者。例如,如果在发送消息时未考虑用户与接收者之间的情况或关系,则可能发送了不适当的消息,或者该消息未完全反映用户的意图。
发明内容
本公开提供了对话***、电子设备以及用于控制对话***的方法,所述电子设备用于发送消息,其中当用户请求发送消息时,用户的意图完全反映了用户与接收者之间的情感关系、当前上下文信息等以及用户与接收者之间的社会关系。
根据本公开的一个方面,对话***可以包括存储装置,被配置为存储关系信息;输入处理器,被配置为响应于接收到包括接收者的话语和从用户输入的消息的内容来收集与消息的内容相关联的上下文信息;对话管理器,被配置为基于关系信息确定用户与接收者之间的关系,并基于用户与接收者之间的关系来生成用于将上下文信息转换为句子的含义表示;以及结果处理器,被配置为基于用户与接收者之间的关系、消息的内容以及含义表示中的至少一个或多个来生成发送给接收者的消息。
用户和接收者之间的关系可以包括社会关系和情感关系。存储装置可以被配置为存储消息特征,其中,由用户发送的消息的特征与用户和接收者之间的情感关系以及上下文匹配。对话管理器可以被配置为基于消息特征来生成含义表示。消息的特征可以包括语音行为和语音语调中的至少一个。消息特征可以存储在数据库中。
对话管理器可以被配置为获得用户的情绪状态,并且基于用户与接收者之间的关系以及用户的情绪状态来生成含义表示。存储装置可以被配置为存储消息特性,其中,用户发送的消息的特性与用户和接收者之间的情感关系、用户的情绪状态以及上下文匹配,并且对话管理器被配置为基于消息特征生成含义表示。关系信息可以包括社交媒体中的用户的消息历史、用户的通话历史、用户的联系人以及用户的书写历史中的至少一个。消息特征可以存储在数据库中。
根据本公开的另一方面,一种用于控制对话***的方法可以包括:接收包括接收者的话语和来自用户的消息的内容;收集与消息的内容有关的上下文信息;确定用户与接收者之间的关系;基于用户与接收者之间的关系生成用于将上下文信息转换为句子的含义表示;以及基于消息的内容以及含义表示生成要发送给接收者的消息。
确定用户与接收者之间的关系可包括基于包括社交媒体中的用户的消息历史、用户的通话历史、用户的联系人以及用户的书写历史中的至少一个的关系信息来确定社会关系和情感关系。该方法还可包括将用户发送的消息的特征与用户和接收者之间的情感关系以上下文进行匹配;以及存储与情感关系和上下文匹配的消息的特征。
生成含义表示可以包括搜索与所确定的情感关系和当前上下文匹配的消息特征;以及使用搜索到的消息特征来生成含义表示。该方法还可以包括获得用户的情绪状态。生成含义表示可以包括基于用户和接收者之间的关系以及用户的情绪状态来生成用于将上下文信息转换为句子的含义表示。
该方法还可以包括将用户发送的消息的特征与用户和接收者之间的情感关系、用户的情绪状态和上下文进行匹配;以及存储与情绪关系和上下文匹配的消息的特征。生成含义表示可以包括搜索与所确定的情感关系、用户的情绪状态和当前上下文匹配的消息的特征;以及使用搜索到的消息的特征来生成含义表示。
根据本公开的另一方面,一种电子设备可以包括:接收包括接收者的话语和来自用户的消息的内容;收集与消息的内容有关的上下文信息;以及确定用户与接收者之间的关系。而且,电子设备可以包括:基于用户和接收者之间的关系,生成用于将上下文信息转换为句子的含义表示;以及基于消息的内容和含义表示,生成发送给接收者的消息。
附图说明
从以下结合附图对实施例进行的详细描述中,本公开的这些和/或其他方面将变得显而易见且更容易理解,在附图中:
图1是示出根据本公开的示例性实施例的对话***的控制框图;
图2是示出根据本公开的示例性实施例的对话***的输入处理器的部件的控制框图;
图3是示出根据本公开的示例性实施例的对话***的对话管理器的部件的控制框图;
图4和图5是示出根据本公开的示例性实施例的存储在对话***的存储装置中的消息的特征的示例的视图;
图6是示出根据本公开的示例性实施例的对话***的结果处理器的部件的控制框图;
图7是示出根据本公开的示例性实施例的对话***和用户进行的对话的示例的视图;
图8是示出由含义表示生成器根据诸如当前位置、交通信息、语音行为、语音语调和估计到达时间之类的输入而生成的含义表示的示例的视图;以及
图9是示出用于控制根据本公开的示例性实施例的对话***的方法的流程图。
具体实施方式
本文使用的术语仅出于描述特定实施例的目的,而并非旨在限制本发明。如本文所使用,除非上下文另有明确指示,否则单数形式“一(a)”、“一个(an)”和“该(the)”旨在也包括复数形式。还将理解的是,术语“包括/包含(comprises)”和/或“包括/包含(comprising)”当在本说明书中使用时,其指所述特征、整体、步骤、操作、元件和/或部件的存在,但不排除一个或多个其他特征、整体、步骤、操作、元件、部件和/或其群组的存在或添加。如本文所用,术语“和/或”包括一个或多个相关联所列项目的任何和所有组合。
应当理解,本文所使用的术语“车辆”或“车辆的”或其他类似术语一般而言包括机动车辆,诸如包含运动型多用途车辆(SUV)、公共汽车、货车、各种商用车辆的客车;包含各种轮船和舰船的船只;飞行器等等,并且包括混合动力车辆、电动车辆、燃烧插电式混合动力电动车辆、氢动力车辆和其他替代燃料车辆(例如,从非石油资源获得的燃料)。
在说明书中公开的示例性实施例和在附图中示出的构造是所公开的发明的优选示例。在提交本申请时,可能有各种变型可以代替本说明书的示例性实施例和附图。而且,本文中使用的术语仅出于描述特定实施例的目的,并且不用于限制所公开的发明。除非有相反的具体描述,否则单数表达包括复数表达。如本文所使用,术语“包括 (comprise)”、“包括(include)”或“具有”旨在表示存在说明书中描述的特征、数量、步骤、操作、部件、元件或其组合,而不提前排除任何其他特征或数量、步骤、操作、部件、零件或其组合。
另外,术语诸如“~部分”、“~单元”、“~块”、“~构件”、“~模块”可以指用于处理至少一个功能或操作的单元。例如,这些术语可以指至少一种硬件诸如现场可编程门阵列(FPGA)、专用集成电路(ASIC)等,存储在存储器中的至少一种程序或由处理器处理的至少一种过程。
虽然至少一个示例性实施例被描述为使用多个单元执行示例性过程,但应当理解,示例性过程也可通过一个或多个模块执行。另外,应当理解,术语控制器/控制单元是指包括存储器和处理器的硬件装置。存储器被配置为存储模块,并且处理器具体地被配置为执行下面进一步描述的一个或多个过程。
附加在步骤上的符号用于标识步骤。这些符号不表示步骤之间的顺序。除非上下文清楚地指示特定的顺序,否则每个步骤均以不同于所述顺序的顺序执行。
同时,所公开的示例性实施例可以以用于存储可由计算机执行的指令的记录介质的形式来实现。指令可以以程序代码的形式存储,并且当由处理器执行时,可以生成程序模块以执行所公开的示例性实施例的操作。记录介质可以被实现为非暂时性计算机可读记录介质。此外,本发明的控制逻辑可被实施为包含由处理器、控制器/控制单元等执行的可执行程序指令的计算机可读介质上的非暂时性计算机可读介质。计算机可读介质的示例包括但不限于ROM、RAM、光盘(CD) -ROM、磁带、软盘、闪存驱动器、智能卡和光数据存储装置。计算机可读记录介质也可分布在联网的计算机***中,使得计算机可读介质以分布方式被存储和执行,例如通过远程信息处理服务器或者控制器局域网(CAN)。
在下文中,将参考附图详细描述本公开。
根据示例性实施例的对话***是被配置为使用用户的语音(即,话语或言语交际)和非语音输入来识别用户的意图并提供适合于该用户的意图的服务的设备。对话***还可以被配置为即使在没有来自用户的输入的情况下,也可以通过自行确定服务来提供用户需要的服务。
对话***提供的服务之一可以是消息传输。消息传输可以包括文本消息传输和声音消息传输两者,但是在下面描述的示例性实施例中,将详细描述关于文本消息传输的示例。
图1是示出了根据本公开的示例性实施例的对话***的控制框图。参照图1,根据示例性实施例,对话***100可以包括被配置为存储关系信息的存储装置140,该关系信息包括用户的社交媒体中的消息历史、通话历史、联系人和书写历史中的至少一个;以及输入处理器110,被配置为响应于接收到包括接收者的话语和从用户输入的消息的内容来收集与消息的内容相关联的上下文信息。对话管理器 120可以被配置为基于关系信息来确定用户与接收者之间的关系,并且基于用户与接收者之间的关系来生成用于将上下文信息转换为句子的含义表示,并且结果处理器130可以被配置为基于用户与接收者之间的关系、消息的内容以及含义表示中的一个或多个来生成发送给接收者的消息。
存储装置140可以被配置为包括非易失性存储器中的至少一个,该非易失性存储器包括闪存、只读存储器(ROM)、可擦可编程只读存储器(EPROM)、电可擦可编程只读存储器(EEPROM)等。另外,存储装置140可以被配置为包括易失性存储器中的至少一个,该易失性存储器包括随机存取存储器(RAM)、静态随机存取存储器 (S-RAM)、动态随机存取存储器(D-RAM)等。
输入处理器110、对话管理器120和结果处理器130可以被配置为包括至少一个存储器,被配置为存储包括用于执行上述操作和稍后将要描述的操作的指令的程序以及与所述操作有关的各种类型的数据;以及至少一个处理器,被配置为执行所存储的程序。因此,任何电子设备都可以包括在根据示例性实施例的对话***100的范围内,该电子设备包括至少一个存储器,被配置为存储包括用于执行上述操作和稍后将要描述的操作的指令的程序;以及至少一个处理器,被配置为执行所存储的程序。
另外,输入处理器110、对话管理器120和结果处理器130可以被配置为共享存储器或处理器。否则,输入处理器110、对话管理器 120和结果处理器130可以被配置为分别使用单独的存储器和单独的处理器。当对话***100包括多个存储器和多个处理器时,它们可以被集成在一个芯片上,或者可以在物理上彼此分离。
另外,输入处理器110、对话管理器120、结果处理器130和存储装置140可以设置在服务提供商的服务器中,或者可以设置在用于提供对话服务的用户终端中,诸如车辆、家用电器、智能电话、人工智能扬声器等。在前一种情况下,当用户的语音输入到设置在用户终端中的麦克风时,用户终端将用户的语音转换为语音信号并将语音信号发送到服务提供商的服务器。
此外,可以在用户终端处执行输入处理器110、对话管理器120 和结果处理器130的一些操作,并且可以基于存储器的容量和用户终端的处理器的处理能力在服务提供商的服务器上执行一些剩余的操作。在以下示例性实施例中,将以以下情况为例:用户是车辆的驾驶员,而用户终端是车辆或移动装置,诸如连接到车辆的智能电话。
图2是示出根据示例性实施例的对话***的输入处理器的部件的控制框图。参照图2,输入处理器110可以被配置为包括被配置为处理声音输入的声音输入处理器111和被配置为处理上下文信息的上下文信息处理器112。经由用户终端的麦克风输入的用户声音输入可以发送到声音输入处理器111,并且通过用户终端的传感器或者通过与外部服务器的通信获得的上下文信息可以发送到上下文信息处理器 112。
声音输入处理器111可以被配置为包括语音识别器,被配置为识别用户的语音并输出与用户的语音对应的文本话语;以及自然语言理解处理器,被配置为通过将自然语言理解技术应用于话语来确定包括在话语文本中的用户意图。语音识别器可以被配置为包括语音识别引擎,并且语音识别引擎可以被配置为通过应用语音识别算法来识别用户的语音并生成识别结果。作为识别结果的话语文本可以输入到自然语言理解处理器。自然语言理解处理器可以被配置为通过应用自然语言理解技术来确定包括在话语中的用户意图。
首先,自然语言理解处理器可以被配置为对话语执行形态分析以将输入串转换为词素串。另外,自然语言理解处理器可以被配置为从话语识别实体名称。实体名称可以是专有名词(例如,人名、地点名称、组织名称、时间、日期或货币),并且实体名称识别可以被配置为识别句子中的实体名称并确定所识别的实体名称的类型。自然语言理解处理器可以被配置为使用实体名称识别从句子中提取重要的关键词并且识别句子的含义。
自然语言理解处理器可以被配置为从话语中提取域。该域可以用于识别话语的主题。指示各种主题(例如,消息、导航、计划表、天气、交通、车辆控制)的域可以作为数据库存储在存储装置140中。
另外,自然语言理解处理器可以被配置为分析包含在话语中的语音行为。语音行为分析可以包括识别话语的意图,例如,用户是否提出问题,用户是否提出请求,用户是否响应或者用户是否简单地表达了情感。
此外,自然语言理解处理器可以被配置为基于信息(例如域、实体名称和语音行为)来识别说话的意图并提取与该说话对应的动作。该动作可以由对象和操作员定义。自然语言理解处理器可以被配置为提取与动作执行有关的因素。与动作执行有关的因素可以是动作执行直接需要的有效因素,或者可以是用于提取有效因素的无效因素。
例如,当语音识别器输出的话语是“向Gildong发送消息”时,自然语言理解处理器可以被配置为将“消息”确定为与该话语对应的域,并且将“发送消息”确定为与该话语对应的动作。语音行为可以是“请求”。作为实体名称的[Gildong]是与动作执行相关的[因素1:接收者]。然而,实际消息传输还需要[因素2:消息的特定内容]。具体地,对话***100可以被配置为输出***话语,例如“请告诉我您要发送的消息的内容”,以从用户获得消息的特定内容。
根据示例性实施例,对话***100可以被配置为通过基于用户与接收者之间的关系发送消息和上下文信息来提供充分反映用户意图的服务,而不是仅仅通过按原样发送用户请求的消息内容来提供充分反映用户意图的服务。因此,上下文信息处理器112可以被配置为收集与用户口述消息的内容有关的上下文信息。例如,与用户口述消息的内容有关的上下文信息可以包括交通信息、当前位置、到达时间、计划表、车辆状况等。
存储装置140可以被配置为基于要存储的日期的重要性或持久性以及用户的意图将数据分别存储在短期存储器141和长期存储器142 中。短期存储器141可以被配置为存储在从当前时间开始的参考时间段内测量的各种传感器值、从当前时间点开始的参考时间段内进行的对话的内容、从当前时间点开始的参考时间段内从外部服务器提供的信息、由用户注册的计划表等。长期存储器142可以被配置为存储联系人、用户对特定主题的偏好等。另外,通过处理存储在短期存储器 141中的数据来新获取的信息可以存储在长期存储器142中。
指示用户与另一人之间的关系的关系信息诸如社交媒体中的用户的消息历史、通话历史和书写历史可以存储在短期存储器141中或者可以存储在长期存储器142中。例如,可以将在从当前时间点开始的参考时间段内累积的社交媒体中的消息历史、通话历史和书写历史存储在短期存储器141中,并且当参考时间段过去时,可以自动删除存储的历史。可替代地,社交媒体中的消息历史、通话历史和书写历史可以与时间点无关地存储在长期存储器142中。
例如,当由声音输入处理器111确定的消息的内容指示用户约会迟到时,上下文信息处理器112可以被配置为收集信息,诸如当前位置、交通状况、到达时间、车辆状态等。如果该信息已经存储在短期存储器141中,则可以从短期存储器141中获得该信息,并且如果该信息尚未存储在短期存储器141中,则可以从外部服务器或车辆传感器请求获得该信息。
作为另一示例,当由声音输入处理器111确定的消息内容是用于设置新约会的内容时,上下文信息处理器112可以被配置为收集包括用户的计划表、家庭住址、接收者的家庭住址、地图信息、用户首选位置附近的兴趣点(POI)等的信息。如果该信息已经存储在短期存储器141中,则可以从短期存储器141中获得该信息,并且如果该信息尚未存储在短期存储器141中,则可以从外部服务器请求获得该信息。
输入处理器110可以被配置为将与消息的内容相关联的上下文信息和自然语言理解的结果(诸如域、动作、因素等)发送给对话管理器120。
图3是示出根据本公开的示例性实施例的对话***的对话管理器的部件的控制框图,并且图4和图5是示出根据本公开的示例性实施例的存储在对话***的存储装置中的消息的特征的示例的视图。
参照图3,对话管理器120可以被配置为包括对话流程管理器121,被配置为通过生成、删除和更新对话或动作来管理对话的流程;关系分析器122,被配置为分析用户与接收者之间的关系;以及含义表示生成器123,被配置为生成用于将上下文信息转换为句子的含义表示。对话流程管理器121可以被配置为确定是否已经生成了与从输入处理器110发送的动作对应的对话任务或动作任务。当已经生成了与从输入处理器110发送的动作对应的对话任务或动作任务时,可以参考在已经生成的任务中执行的对话或动作来继续对话或动作。可替代地,当尚未生成与从输入处理器110发送的动作对应的对话任务或动作任务时,对话流程管理器121可以被配置为重新生成对话任务或动作任务。
关系分析器122可以被配置为基于包括存储在存储装置140中的用户的社交媒体中的消息历史、通话历史、联系人和书写历史中的至少一个的关系信息来分析用户与接收者之间的关系。用户与接收者之间的关系可以包括社会关系和情感关系。
社会关系可以指由职业、亲属关系、受教育程度等定义的关系,诸如朋友、上级、资深同事、资浅同事、高年级学生、低年级学生、家长、父母、祖父母、子女和亲戚。情感关系可以指由对对方的喜欢程度或与对方的亲密度定义的关系。例如,当接收者是“团队负责人”时,社会关系可以是“上级”,而情感关系可以是“喜欢&亲密”、“不喜欢&亲密”、“不喜欢&尴尬”或“喜欢&尴尬”。
社会关系可以由提及接收者的称呼来确定,或者可以基于联系人来确定。当不能通过称呼或联系人确定社会关系时,可以基于关系信息诸如社交媒体中的消息历史、通话历史、书写历史等来确定社会关系。
情感关系也可以基于关系信息诸如社交媒体中的消息历史、通话历史、书写历史等来确定。例如,当接收者是“团队负责人”并且她的电话号码与“女巫负责人金”相匹配地存储时,与接收者的情感关系可能是“不喜欢”。另外,可以通过分析用户与接收者之间的消息历史或通话历史来确定用户与接收者之间的关系是亲密还是尴尬。
作为另一示例,当接收者是“Hong Gildong”,并且“Hong Gildong”被存储在联系人的朋友组中时,接收者可以被确定为用户的“朋友”。另外,***、设备、处理器或其部件可以被配置为通过分析用户与接收者之间的消息历史或通话历史来确定用户与接收者之间的关系是亲密还是尴尬,是喜欢还是不喜欢。另外,通过分析用户与接收者之间的对话历史以及与其他人的对话历史,可以确定用户和 Hong Gildong是亲密还是尴尬,以及用户对Hong Gildong的感觉是喜欢还是不喜欢。
含义表示生成器123可以被配置为生成用于将上下文信息转换为句子的含义表示。对话处理中的含义表示可以是自然语言理解的结果,或者可以是自然语言生成的输入。例如,输入处理器110可以被配置为通过分析用户的话语来生成表示用户意图的含义表示,并且对话管理器120可以被配置为基于对话流程和上下文来生成与下一***话语对应的含义表示。结果处理器130可以被配置为基于从对话管理器120输出的含义表示来生成***要说的句子。
存储装置140可以被配置为针对相应上下文匹配和存储用户发送和接收的消息的特征。这称为消息特征。消息特征可以存储在数据库中。消息的特征可以包括对话行为和语调中的至少一个。语调可以包括是使用正式格式还是非正式方式;是否使用表情符号;是否使用表示正式或非正式讲话的字符或短语;是使用正式语言诸如敬语、韩语字符诸如为圆形符号的“○”,其在韩语中可以用来表示元音初始音节的辅音,还是以亲密的方式说话;是否使用拟声词等。
例如,基于用户的对话历史记录,可以存储用户约会迟到并且用户陷入交通拥堵时用户使用表情符号还是拟声词的信息。上下文是指用户发送或接收消息。上下文可以由消息的内容确定,或者可以由与消息的内容相关联的上下文信息确定。特别地,本公开不限于上述语调。
另外,如图4所示,可以基于用户的情绪状态以及上下文分别存储消息的特征。例如,即使在用户约会迟到并且发生交通拥堵的相同上下文中,也可以基于用户的情绪状态是生气状态、紧张状态、放松状态、悲伤状态、抱歉状态还是令人愉快的状态来存储至少一个不同的消息特征。
作为一个示例,在指示交通阻塞并且期望用户在00分钟内到达,并且用户的情绪状态指示他/她感到抱歉的情况下,该消息格式(包括使用正式格式而不使用表情符号,不使用韩语字符诸如为圆形符号的“○”和不使用拟声词)可能与用户的上下文和情感状态相匹配。
可以使用测量用户的生物信号的传感器的输出值来确定用户的情绪状态,或者可以通过分析用户话语中包括的声调、语音语调、内容等来确定用户的情绪状态。对于如何确定用户的情绪状态没有限制。
含义表示生成器123可以被配置为搜索与当前上下文和用户的当前情绪状态匹配的消息的特征,并使用所搜索的消息的特征来生成用于将上下文信息转换为句子的含义表示。另外,如图5所示,可以基于上下文和用户与接收者之间的情感关系来分别存储消息的特征。例如,在用户约会迟到并且发生交通拥堵的上下文中,可以基于用户与接收者之间的亲密度或喜欢程度来不同地存储语调或是否使用表情符号。
作为一个示例,在指示交通阻塞并且期望用户在00分钟内到达,并且用户的情绪状态指示他/她感到抱歉的情况下,该消息格式(包括使用正式格式而不使用表情符号,不使用韩语字符诸如为圆形符号的“○”和不使用拟声词)可能与用户的上下文和情感状态相匹配。
含义表示生成器123可以被配置为搜索与当前上下文和用户与接收者之间的情感关系匹配的消息的特征,并使用所搜索的消息的特征来生成用于将上下文信息转换为句子的含义表示。此外,也可以在分别与上下文、用户与接收者之间的情感关系以及用户的情绪状态匹配之后存储消息的特征。
消息的特征可以反映在指示上下文信息的句子中,也可以反映在用户说出的消息的内容中。例如,当用户说出“发送我会晚一点的消息”时,当生成包括用户将迟到的含义的句子时,可以反映上述消息的特征。另外,即使当用户响应于询问消息的内容的***话语而说出“我会晚一点”时,对话***100也可以被配置为发送反映上述消息的特征的修改后的消息,而不是照原样发送“我会晚一点”。
同时,关系分析器122的输出也可以被认为是含义表示,因此指示用户与接收者之间的社会关系和情感关系的含义表示以及作为含义表示生成器123的输出并指示与消息的内容和消息的特征相关联的上下文信息的含义表示可以被发送到结果处理器130。
图6是示出根据本公开的示例性实施例的对话***的结果处理器的部件的控制框图。参照图6,结果处理器130可以被配置为包括响应生成管理器131,被配置为管理执行从对话管理器120输入的动作所需的响应的生成;对话响应生成器132,被配置为基于响应生成管理器131的请求生成文本响应、图像响应或音频响应;以及命令生成器133,被配置为基于响应生成管理器131的请求生成用于执行动作的命令。
当从对话管理器120发送与动作有关的信息,例如,[动作:发送 (操作员)_消息(对象)]、[动作因素1:接收者]、[动作因素2:消息的内容]以及用于将上下文信息转换为句子的含义表示时,对话响应生成器132可以被配置为生成与所发送的信息对应的消息,并且命令生成器133可以被配置为生成用于发送该消息的命令。
当对话响应生成器132生成消息时,对话响应生成器132可以参考响应模板,或者对话响应生成器132可以基于存储在存储装置140中的规则来生成消息。另外,对话响应生成器132可以被配置为生成对话响应以在发送消息之前接收来自用户的确认。当对话响应生成器 132生成对话响应时,对话响应生成器132可以参考存储在存储装置 140中的响应模板,或者对话响应可以基于规则。
图7是示出根据示例性实施例的对话***和用户进行的对话的示例的视图,并且图8是示出由含义表示生成器生成的含义表示的示例的视图。
参照图7的示例,当用户说出“发送消息”时,声音输入处理器 111通过语音识别引擎和自然语言理解处理器将话语确定为[域:消息] 和[动作:发送消息]。然而,由于缺少作为用于执行消息传输动作的必要因素的接收者和消息内容,因此对话响应生成器132可以被配置为输出***话语,例如,“您想向谁发送消息(Who would you like to send themessage?)”(或“您想向谁发送消息?(To whom would you like to send the message?)”或“您想向谁发送消息?(Who would you like to send the message to?)”等),以响应用户话语来确认接收者。***话语可以发送到合适的输出装置,诸如扬声器S。
当用户说出接收者的名字时,例如“Gildong”,关系分析器 122可以被配置为基于存储在存储装置140中的关系信息来确定用户与Gildong之间的社会关系和情感关系。
对话响应生成器132可以被配置为输出***话语“请告诉我消息的内容”以获得消息的内容。当用户说出消息内容“我可能会晚一点”时,上下文信息处理器112可以被配置为收集当前位置、交通状况、到达时间等,其是与消息的内容关联的上下文信息。当关系分析器122将“朋友”确定为用户与Gildong之间的社会关系并将“亲密度&喜欢”确定为用户与Gildong之间的情感关系,并且将“使用表情符号并使用韩语字符“○”和非正式说话方式”(“非正式方法”可以是“非正式方式”等)存储为与当前上下文和情感关系对应的消息的特征,含义表示生成器123可以被配置为生成如图8所示的含义表示。
参照图8,由含义表示生成器123生成的含义表示可以是[当前位置:○○附近]、[交通信息:拥堵+xx交叉路口附近的小车祸]、[语音行为:提供信息]、[估计到达时间:20分钟内]、[语音语调:使用韩语字符“○”和非正式说话方式并使用表情符号]。请注意,在图8中。“○○”表示当前位置,其不同于可用于表示非正式讲话的上述韩语字符“○”。
对话管理器120可以被配置为将包括[动作:发送消息]、[接收者:Gildong]、[用户说出的消息的内容:我可能会晚一点]、[社会关系:朋友]、[情感关系:亲密度&喜欢]等的含义表示以及图8所示的含义表示发送给结果处理器130。
结果处理器130的对话响应生成器131可以被配置为基于响应模板或规则来生成与所发送的含义表示对应的消息。例如,生成的消息可以是“我现在在○○附近,这里由于xx交叉路口的小车祸而交通拥堵。我可能会晚一点”。
另外,对话响应生成器132可以被配置为输出“您是否想发送一条消息,说‘我现在在○○附近,这里由于xx交叉路口的小车祸而交通拥堵。我可能会晚一点’?”作为***话语以确认是否发送生成的消息。当用户说出“是,我愿意”以确认发送所生成的消息时,命令生成器133可以被配置为生成命令以发送消息“我现在在○○附近,这里由于xx交叉路口的小车祸而交通拥堵。我可能会晚一点”,并且基于所生成的命令发送消息。
在下文中,将在下面描述用于控制对话***的方法的示例性实施例。当执行用于控制根据示例性实施例的对话***的方法时,可以使用根据上述示例性实施例的对话***100。因此,即使没有另外提及,上文参照图1至图8描述的关于对话***100的描述也可以应用于用于控制对话***的方法。下文描述的方法可以由控制器执行。
图9是示出用于控制根据本公开的示例性实施例的对话***的方法的流程图。参照图9,用于控制根据示例性实施例的对话***的方法可以包括:从用户接收用于发送消息的请求(210);收集与消息的内容有关的上下文信息(211);确定用户与接收者之间的关系(212);生成用于将上下文信息转换为句子的含义表示(213);以及生成要发送给接收者的消息(214)。
用户可以输入请求将消息发送到设置在用户终端中的麦克风的话语。请求发送消息的话语可以包括接收者和消息的内容。接收者和消息的内容可以一次发出,或可以一步一步发出。与消息的内容相关联的上下文信息可以包括诸如当前位置、交通信息、到达时间、车辆状况、用户的计划表、接收者的家庭住址、地图信息、POI等之类的信息。当已经获得此类信息并将其存储在短期存储器141或长期存储器 142中时,可以从短期存储器141或长期存储器142访问必要的信息。可替代地,当尚未获得此类信息时,对话***100可以被配置为向外部服务器、车辆传感器等请求必要的信息。
用户与接收者之间的关系可以包括社会关系和情感关系。社会关系可以由提及接收者的称呼来确定,或者可以基于联系人来确定。当不能通过称呼或联系人确定社会关系时,可以基于诸如社交媒体中的消息历史、通话历史、书写历史等的关系信息来确定社会关系。还可基于诸如社交媒体中的联系人、消息历史、通话历史、书写历史等的关系信息来确定情感关系。
同时,根据用于控制根据示例性实施例的对话***的方法,可以针对每个上下文将用户发送或接收的消息的特征存储在数据库中。消息的特征可以在上下文中以及在用户与接收者之间的情感关系中加以区分。因此,用于控制根据示例性实施例的对话***的方法还可以包括针对用户与接收者之间的每种情感关系以及针对每种上下文来匹配并存储由用户发送的消息的特征。
含义表示的生成(213)可以包括搜索与用户和接收者之间的情感关系以及当前上下文匹配的消息的特征,以及使用搜索到的消息的特征生成用于将上下文信息转换为句子的含义表示。另外,当生成含义表示时,也可以反映用户的情绪状态。因此,可以针对用户和接收者之间的每种情感关系、用户的每种情感状态以及每个上下文来匹配并存储消息的特征。
当获得用户的当前情绪状态时,可以在消息特征中搜索与步骤 212中确定的用户与接收者之间的情感关系、当前上下文和用户的当前情绪状态匹配的消息的特征,并且可以使用搜索到的消息的特征来生成含义表示。消息特征可以存储在数据库中。
根据上述对话***及其控制方法,实现了优点,即,例如,当用户请求对话***100发送消息时,由用户说出的消息内容以及与该消息的内容相关联的上下文信息可以一起发送。另外,可以基于根据用户和接收者之间的社会关系和情感关系确定的语调来发送完全反映用户意图的自然消息。
尽管已经示出和描述了本公开的一些示例性实施例,但是本领域技术人员将理解,可以在不脱离本公开的原理和精神的情况下对这些示例性实施例进行改变,本公开的范围在权利要求及其等同物中限定。
前面的描述已经针对本公开的示例性实施例。然而,显而易见的是,可以对所描述的示例性实施例进行其他变型和修改,从而获得其某些或全部优点。因此,该描述将仅以示例的方式进行,并且不以其他方式限制本文中示例性实施例的范围。因此,所附权利要求的目的是覆盖落入本文示例性实施例的真实精神和范围内的所有此类变型和修改。

Claims (17)

1.一种对话***,其包括:
存储装置,被配置为存储关系信息;
输入处理器,被配置为:响应于接收到包括接收者的话语和从所述用户输入的消息的内容,来收集与所述消息的所述内容相关联的上下文信息;
对话管理器,被配置为:基于所述关系信息确定所述用户与所述接收者之间的关系,并且基于所述用户与所述接收者之间的所述关系来生成用于将所述上下文信息转换为句子的含义表示;以及
结果处理器,被配置为:基于以下来生成发送给所述接收者的消息:
所述用户与所述接收者之间的所述关系,
所述消息的所述内容,以及
所述含义表示。
2.根据权利要求1所述的对话***,其中,所述用户与所述接收者之间的所述关系包括社会关系和情感关系。
3.根据权利要求2所述的对话***,其中,所述存储装置被配置为:存储所述用户发送的所述消息的消息特征,以及
其中,所述消息特征与以下相匹配:
所述用户与所述接收者之间的所述情感关系,以及
上下文。
4.根据权利要求3所述的对话***,其中,所述对话管理器被配置为基于所述消息特征来生成所述含义表示。
5.根据权利要求3所述的对话***,其中,所述消息的所述特征包括语音行为和语音语调中的至少一个。
6.根据权利要求1所述的对话***,其中,所述对话管理器被配置为:
确定所述用户的情绪状态,以及
基于以下生成所述含义表示:
所述用户与所述接收者之间的所述关系,以及
所述用户的所述情绪状态。
7.根据权利要求6所述的对话***,
其中,所述存储装置被配置为存储所述用户发送的所述消息的消息特征,
其中,所述消息特征与以下相匹配:
所述用户与所述接收者之间的所述情感关系,
所述用户的所述情绪状态,以及
上下文,以及
其中,所述对话管理器被配置为基于所述消息特征生成所述含义表示。
8.根据权利要求1所述的对话***,其中,所述关系信息包括所述用户的社交媒体中的所述用户的消息历史、所述用户的通话历史、所述用户的联系人以及所述用户的书写历史中的至少一个。
9.一种用于控制对话***的方法,包括以下步骤:
由控制器接收包括接收者的话语和来自用户的消息的内容;
由所述控制器收集与所述消息的所述内容有关的上下文信息;
由所述控制器确定所述用户与所述接收者之间的关系;
由所述控制器基于所述用户与所述接收者之间的关系来生成用于将所述上下文信息转换为句子的含义表示;以及
由所述控制器基于所述消息的所述内容和所述含义表示来生成发送给所述接收者的消息。
10.根据权利要求9所述的方法,其中,确定所述用户与所述接收者之间的所述关系包括:
由所述控制器基于包括社交媒体中的所述用户的消息历史、所述用户的通话历史、所述用户的联系人以及所述用户的书写历史中的至少一个的关系信息来确定所述用户与所述接收者之间的社会关系以及所述用户与所述接收者之间的情感关系。
11.根据权利要求10所述的方法,还包括:
由所述控制器将所述用户发送的消息的特征与所述用户和所述接收者之间的所述情感关系以及上下文进行匹配,以及
由所述控制器存储与所述情感关系和所述上下文匹配的所述消息的所述特征。
12.根据权利要求11所述的方法,其中,所述生成所述含义表示包括:
由所述控制器搜索与所确定的情感关系和当前上下文匹配的所述消息特征;以及
由所述控制器使用所述搜索到的消息特征来生成所述含义表示。
13.根据权利要求9所述的方法,还包括以下步骤:
由所述控制器确定所述用户的情绪状态。
14.根据权利要求13所述的方法,其中,所述生成所述含义表示包括:
由所述控制器基于以下生成用于将所述上下文信息转换为所述句子的所述含义表示:
所述用户与所述接收者之间的所述关系,以及
所述用户的所述情绪状态。
15.根据权利要求14所述的方法,还包括以下:
由所述控制器将所述用户发送的所述消息的特征与以下进行匹配:
所述用户与接收者之间的所述情感关系,
所述用户的所述情绪状态,以及
上下文,以及
存储与所述情感关系、所述用户的所述情感状态和所述上下文匹配的所述消息的所述特征。
16.根据权利要求15所述的方法,其中,所述生成所述含义表示包括:
由所述控制器搜索与以下匹配的所述消息的所述特征:
所述确定的所述情感关系,
所述用户的所述情绪状态,以及
当前上下文,以及
使用所述搜索到的消息的所述特征生成所述含义表示。
17.一种电子设备,其包括:
存储器,被配置为存储程序指令;以及
处理器,被配置为执行所述程序指令,所述程序指令在执行时被配置为:
接收包括接收者的话语和来自用户的消息的内容;
收集与所述消息的所述内容有关的上下文信息;
确定所述用户与所述接收者之间的关系;
基于所述用户与所述接收者之间的关系,生成用于将所述上下文信息转换为句子的含义表示;以及
基于所述消息的所述内容和所述含义表示,生成发送给所述接收者的消息。
CN201911231730.1A 2019-04-09 2019-12-05 对话***,电子设备和用于控制对话***的方法 Pending CN111797208A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0041352 2019-04-09
KR1020190041352A KR20200119035A (ko) 2019-04-09 2019-04-09 대화 시스템, 전자장치 및 대화 시스템의 제어 방법

Publications (1)

Publication Number Publication Date
CN111797208A true CN111797208A (zh) 2020-10-20

Family

ID=72613036

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911231730.1A Pending CN111797208A (zh) 2019-04-09 2019-12-05 对话***,电子设备和用于控制对话***的方法

Country Status (4)

Country Link
US (1) US20200327888A1 (zh)
KR (1) KR20200119035A (zh)
CN (1) CN111797208A (zh)
DE (1) DE102019218918A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220072561A (ko) * 2020-11-25 2022-06-02 삼성전자주식회사 사용자 입력에 대한 응답을 생성하는 전자 장치 및 그 동작 방법
EP4181120A4 (en) * 2020-11-25 2024-01-10 Samsung Electronics Co., Ltd. ELECTRONIC DEVICE FOR GENERATING A RESPONSE TO A USER INPUTION AND OPERATING METHOD THEREFOR

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101960795A (zh) * 2008-01-04 2011-01-26 雅虎公司 用于递送扩充消息的***和方法
CN102036198A (zh) * 2009-09-24 2011-04-27 北京安捷乐通信技术有限公司 一种在短信内容中增加附加信息的方法及装置
CN102187362A (zh) * 2008-08-21 2011-09-14 雅虎公司 用于情境增强的消息传送的***和方法
US20110294525A1 (en) * 2010-05-25 2011-12-01 Sony Ericsson Mobile Communications Ab Text enhancement
KR20130077428A (ko) * 2011-12-29 2013-07-09 한국인터넷진흥원 모바일 클라우드 사용자 접속 상황 정보 수집 시스템 및 방법
CN103354995A (zh) * 2010-09-28 2013-10-16 倍酷国际有限公司 用非语音的补充信息来增强语音消息的方法
CN104303463A (zh) * 2012-01-05 2015-01-21 格里姆普希公司 用于移动通信整合的***及方法
CN104782094A (zh) * 2012-12-07 2015-07-15 邻客音公司 通信***和方法
CN106201161A (zh) * 2014-09-23 2016-12-07 北京三星通信技术研究有限公司 电子设备的显示方法及***
CN107493353A (zh) * 2017-10-11 2017-12-19 宁波感微知著机器人科技有限公司 一种基于上下文信息的智能机器人云计算方法
CN107637025A (zh) * 2015-06-01 2018-01-26 三星电子株式会社 用于输出消息的电子装置及其控制方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10791067B1 (en) * 2019-03-04 2020-09-29 International Business Machines Corporation Cognitive message response assistant

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101960795A (zh) * 2008-01-04 2011-01-26 雅虎公司 用于递送扩充消息的***和方法
CN102187362A (zh) * 2008-08-21 2011-09-14 雅虎公司 用于情境增强的消息传送的***和方法
CN102036198A (zh) * 2009-09-24 2011-04-27 北京安捷乐通信技术有限公司 一种在短信内容中增加附加信息的方法及装置
US20110294525A1 (en) * 2010-05-25 2011-12-01 Sony Ericsson Mobile Communications Ab Text enhancement
CN103354995A (zh) * 2010-09-28 2013-10-16 倍酷国际有限公司 用非语音的补充信息来增强语音消息的方法
KR20130077428A (ko) * 2011-12-29 2013-07-09 한국인터넷진흥원 모바일 클라우드 사용자 접속 상황 정보 수집 시스템 및 방법
CN104303463A (zh) * 2012-01-05 2015-01-21 格里姆普希公司 用于移动通信整合的***及方法
CN104782094A (zh) * 2012-12-07 2015-07-15 邻客音公司 通信***和方法
CN106201161A (zh) * 2014-09-23 2016-12-07 北京三星通信技术研究有限公司 电子设备的显示方法及***
CN107637025A (zh) * 2015-06-01 2018-01-26 三星电子株式会社 用于输出消息的电子装置及其控制方法
CN107493353A (zh) * 2017-10-11 2017-12-19 宁波感微知著机器人科技有限公司 一种基于上下文信息的智能机器人云计算方法

Also Published As

Publication number Publication date
DE102019218918A1 (de) 2020-10-15
US20200327888A1 (en) 2020-10-15
KR20200119035A (ko) 2020-10-19

Similar Documents

Publication Publication Date Title
US10733983B2 (en) Parameter collection and automatic dialog generation in dialog systems
US10685187B2 (en) Providing access to user-controlled resources by automated assistants
KR102178738B1 (ko) 적절한 에이전트의 자동화된 어시스턴트 호출
CN108573702B (zh) 具有域歧义消除的启用语音功能的***
EP3477635B1 (en) System and method for natural language processing
CN109841212B (zh) 分析具有多个意图的命令的语音识别***和语音识别方法
US20110172989A1 (en) Intelligent and parsimonious message engine
KR102485342B1 (ko) 차량의 환경에 기반한 추천 신뢰도 판단 장치 및 방법
US20210056950A1 (en) Presenting electronic communications in narrative form
US20180308481A1 (en) Automated assistant data flow
CN111261151A (zh) 一种语音处理方法、装置、电子设备及存储介质
US11104354B2 (en) Apparatus and method for recommending function of vehicle
CN111797208A (zh) 对话***,电子设备和用于控制对话***的方法
CN110570867A (zh) 一种本地新增语料的语音处理方法及***
CN111301312B (zh) 语音识别***的会话引导方法
CN111312236A (zh) 语音识别***的域管理方法
CN105869631B (zh) 语音预测的方法和装置
CN110909135A (zh) 对话代理的操作方法和对话代理设备
US20210080281A1 (en) Vehicle virtual assistant systems and methods for storing and utilizing data associated with vehicle stops
US20200178073A1 (en) Vehicle virtual assistance systems and methods for processing and delivering a message to a recipient based on a private content of the message
KR102485339B1 (ko) 차량의 음성 명령 처리 장치 및 방법
Tchankue et al. Are mobile in-car communication systems feasible? a usability study
CN114860910A (zh) 智能对话方法及***
CN114530149A (zh) 车辆及其控制方法
WO2021166504A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination