CN107003997A - 用于交互式对话***的情绪类型分类 - Google Patents

用于交互式对话***的情绪类型分类 Download PDF

Info

Publication number
CN107003997A
CN107003997A CN201580065944.XA CN201580065944A CN107003997A CN 107003997 A CN107003997 A CN 107003997A CN 201580065944 A CN201580065944 A CN 201580065944A CN 107003997 A CN107003997 A CN 107003997A
Authority
CN
China
Prior art keywords
emotion
type
user
code
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201580065944.XA
Other languages
English (en)
Inventor
E·优恩
M·梁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Technology Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Technology Licensing LLC filed Critical Microsoft Technology Licensing LLC
Publication of CN107003997A publication Critical patent/CN107003997A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90332Natural language query formulation or dialogue systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

在交互式对话***中用于选择与语义内容相关联的情绪类型代码的技术。在一个方面中,向情绪分类算法提供事实或者简档输入,该情绪分类算法基于事实或者简档输入的具体组合来选择情绪类型。所述情绪分类算法可以是基于规则的或者是从机器学习得到的。可以进一步将先前的用户输入指定为所述情绪分类算法的输入。该技术尤其适用在诸如智能手机的移动通信设备中,其中该事实或者简档输入可以是从设备的多样化的功能集的使用得到的,包括在线接入、文本或者语音通信、日程安排功能等。

Description

用于交互式对话***的情绪类型分类
背景技术
人工交互式对话***在最先进的消费电子设备中是一种日益广泛的特征。例如,现代无线智能手机集成语音识别、交互式对话和语音合成软件以与用户进行实时交互式对话从而传送如信息和新闻、远程设备配置和编程、对话交往等服务。
为了使用户能够体验到与对话***更自然且更无缝的对话,需要生成具有除了语义内容之外的情绪内容的语音或者其它输出。例如,当递送新闻、日程安排任务或者与用户交互时,需要向合成的语音和/或其它输出赋予情绪特征以更有效地使用户融入对话。
因此,需要提供用于确定要赋予由交互式对话***递送的语义内容的合适情绪并且根据多个预定的情绪类型中的一个预定的情绪类型对这种确定的情绪进行分类的技术。
发明内容
提供本发明内容以简化的形式介绍将在下面具体实施例中进一步详细描述的构思的选择。本发明内容既不旨在标识所要求的主题的关键或者必要特征,也不旨在用于限制所要求的主题的范围。
简而言之,本文描述的主题的各个方面直接涉及提供用于交互式对话***的装置的技术。在一个方面中,可用于移动通信设备的事实或者简档可以与先前的或者当前的用户输入进行组合以选择恰当的情绪类型代码以与交互式对话***生成的输出语句相关联。该事实或者简档输入可以从设备使用的某些方面得到,例如,用户在线活动、用户通信、日历和日程安排功能等。用于选择情绪类型代码的算法可以是基于规则的或者是通过机器学习技术预配置的。可以将情绪类型代码与输出语句组合以生成具有情绪特性的、用于提高的用户体验的合成语音。
其它优点可以通过以下详细说明和附图而变得显而易见。
附图说明
图1图示了其中应用本公开的的技术、采用移动通信设备的场景。
图2图示了可以通过设备的处理器和其它元件执行的处理的示例性实施例。
图3图示了通过对话引擎执行的处理的示例性实施例。
图4图示了根据本公开的情绪类型分类框的示例性实施例。
图5图示了混合情绪类型分类算法的示例性实施例。
图6图示了基于规则的算法的示例性实施例。
图7图示了基于规则的算法的备选的示例性实施例。
图8图示了用于得到用于选择情绪类型的经训练的算法的训练方案的示例性实施例。
图9图示了根据本公开的方法的示例性实施例。
图10示意性地示出了可以执行上述方法和过程中的一个或多个的非限制性计算***。
图11图示了根据本公开的设备的示例性实施例。
图12图示了,其中本公开的技术包含在具有被赋予情绪内容的对话***中以显示而非可听的语音或除了可听的语音之外的文本的示例性实施例。
具体实施方式
本文描述的技术的各个方面通常涉及在电子交互式对话***中用于选择与输出语句相关联的情绪类型代码的技术。下面结合附图阐述的详细描述旨在作为本发明的示例性方面的描述,不旨在仅仅代表在其中可以实践本发明的示例性方面。贯穿描述中使用的术语“示例性”是指“用作示例、实例或者图示”,不应该将其理解为比其它示例性方面优选或者有利。该详细描述包括针对提供本发明的示例性方面的全面理解的目的的具体细节。对于本领域的技术人员显而易见的是可以在没有这些具体细节的情况下实践本发明的示例性方面。在一些实例中,为了避免模糊本文提出的示例性方面的新颖性,以框图的形式示出了已知的结构和设备。
图1图示了采用移动通信设备120的场景,在该场景中,可以应用本公开的技术。注意,图1仅仅是出于图示的目的被示出,并不表示将本公开的范围限制于本公开仅应用于移动通信设备。例如,本文描述的技术可以容易地应用在其它设备和***中,例如,在笔记本计算机和桌面计算机、汽车导航***等的人类接口***中。这种替代应用被预期在本公开的范围内。
在图1中,用户110与移动通信设备120(例如,手持智能手机)通信。智能手机可以被理解为包括集成诸如语音呼叫和互联网接入等通信功能与用于实现多样化的计算任务阵列的相对复杂的微处理器的任何移动设备。用户110可以向设备120上的麦克风124提供语音输入122。设备120内的一个或者多个处理器125、和/或通过网络可用的处理器(未示出)(例如,实施云计算方案)可以处理由麦克风124接收到的语音信号,例如,执行下文参照图2进一步描述的功能。注意,处理器125不需要具有任何特定的形式、形状或者功能划分,诸如本文仅出于示例目的而描述的,并且这种处理器通常可以通过使用现有技术中已知的多种技术来实施。
基于处理器125执行的处理,设备120可以响应于语音输入122使用音频扬声器128生成语音输出126。在某些场景中,设备120还可以独立于语音输入122生成语音输出126,例如,设备120可以以语音输出126的形式自主地向用户110提供警报或者将来自其它用户(未示出)的消息中继至用户110。在示例性实施例中,响应于语音输入122的输出也可以被显示在设备120的显示器129上,例如作为文本、图形、动画等。
图2图示了可以通过设备120的处理器125和其它元件实现的交互式对话***200的示例性实施例。注意,在图2中示出的处理仅仅是出于图示的目的,不旨在将本公开的范围限制在图2中示出的任何特定序列或者操作集合。例如,在备选的示例性实施例中,本文公开的用于选择情绪类型代码的某些技术可以独立于图2中示出的处理而被应用。而且,可以根据***中的具体功能划分来组合或者省略图2中示出的一个或者多个框,并且因此图2不旨在显示所示出的框的任何功能依赖性或者独立性。这种替代示例性实施例被预期为在本公开的范围内。
在图2中,在框210中,接收语音输入。语音输入210可以对应于从,例如,设备120上的麦克风124得到的声学信号的波形表示。语音输入210的输出210a可以对于与包含语音内容的声学波形的数字版本。
在框220中,对输出210a执行语音识别。在示例性实施例中,语音识别220将语音(诸如,输出210a中存在的)转换为文本。语音识别220的输出220a可以因此对应于在数字声学波形输出210a中的存在的语音的文本表示。例如,如果输出210a包括诸如“明天天气如何?”等人类话语(例如,通过麦克风124拾取的)的音频波形表示,然后语音识别220可以基于其语音识别能力输出与文本“明天天气如何?”对应的ASCII文本(或者其它文本表示)。可以使用声学建模和语言建模技术(包括,例如,隐马尔可夫模型(HMM’s)、神经网络等)来执行通过框220执行的语音识别。
在框230中,基于输出210a的期望的自然语言的知识,对语音识别220的输出220a执行语言理解。在示例性实施例中,可以使用例如构词法和句法的知识来执行诸如解析和语法分析的自然语言理解技术,以得到输出220a中的文本的隐含意图。语言理解230的输出230a可以包括输出220a中存在的语音的语义内容和/或情绪内容的形式表示。
在框240中,对话引擎生成对从输出230a确定的语音的合适的响应。例如,如果语言理解230确定用户语音输入对应于关于特定地形的天气的查询,那么然后对话引擎240可以从资源(例如,天气预报服务或者数据库)获取并且汇集必需的天气信息。例如,检索的天气信息可以对应于天气预报的时间/日期代码、对应于“晴”天气的天气类型代码、指示平均温度为72度的温度场。
在示例性实施例中,对话引擎240可以进一步“打包”检索的信息,从而将其呈现为方便用户理解。因此,对话引擎240的语义内容输出240a可以与语义内容的表示对应,诸如,“今天天气晴朗;气温为72度”。
出了语义内容240a之外,对话引擎240还可以生成与语义内容240a相关联的情绪类型代码240b。情绪类型代码240b可以指示当将语义内容240a作为输出语音递送至用户时要赋予语义内容240a的情绪内容的具体类型。例如,如果用户打算在某天去野餐,则晴朗天气预报与情绪乐观的语调同时被递送。在这种情况下,情绪类型代码240b可以指代与“中度快乐”对应的情绪内容类型。下文将例如参照图3进一步描述基于可用于交互式对话***200的数据、事实、和输入来生成情绪类型代码240b的技术。
在框250中,对对话引擎240的输出240a、240b执行语言生成。语言生成以自言语言格式呈现对话引擎240的输出,例如,符合词汇和语法规则的目标语言中的句子,以准备由人类用户理解。例如,基于语义内容240a,语言生成250可以生成以下语句:“今天的天气为72度并且晴朗”。
在示例性实施例中,框250可以进一步接受来自***性格框255的输入255a。***性格框255可以根据用于交互式对话***的预先选择的“性格”来指定用于对话引擎的默认参数255a。例如,如果将***性格选择为“男性”或“女性”,或“高兴”或“沉思”,则框255可以将对应于***性格的参数指定为参考输入255a。注意,在某些示例性实施例中,可以省略框255,或者可以将其功能包含到其它框中,例如,对话引擎240或者语言生成框250,并且这种备选示例性实施例被构想为在本公开的范围内。
在示例性实施例中,语言生成框250可以将语义内容240a、情绪类型代码240b和默认情绪参数255a组合以合成输出语句250a。例如,与“中度快乐”对应的情绪类型代码240b可以使框250生成自然语言(例如,英语)语句,诸如,“好消息:今天的天气为72度并且晴朗!”。将语言生成框250的输出语句250a被提供至随后的文本转语音框260以生成与输出语句250a对应的音频语音。
注意,在某些示例性实施例中,可以省略上文描述的语言生成框250的一些功能。例如,语言生成框250在生成输出语句250a时不需要具体考虑情绪类型代码240b,并且可以代替依赖文本转语音框260(其也具有对情绪类型代码240b的访问)来提供合成的语音输出的全部情绪内容。此外,在通过对话引擎检索到的信息已经是以自然语言格式的某些实例中,语言生成框250可以被有效地绕过。例如,对话引擎240接入的互联网天气服务可以直接以自然语言(例如,英语)提供天气更新,以便语言生成250可能不需要对语义内容240a进行任何实质的后处理。这种备选的示例性实施例被构想为在本公开的范围内。
在框260中,对语言生成250的输出250a执行文本转语音对话。在示例性实施例中,还将情绪类型代码240b提供至TTS框260以合成具有与250对应的文本内容和与情绪类型代码240b对应的情绪内容的语音。文本转语音对话260的输出可以是音频波形。
在框270中,从文本转语音对话260的输出生成声学输出。可以通过设备120的扬声器128将语音输出提供至收听者,例如,图1的用户。
随着交互式对话***变得日益复杂,需要提供用于有效地为由这种***生成的语音和其它类型的输出选择合适的情绪类型代码的技术。例如,如由情绪类型代码240b和语义内容240a的提供所建议的,在某些应用中,不仅需要将语音输出270生成为情绪上中性的文本再现,在将语音输出270递送至收听者时还需要语音输出270包含预先指定的情绪内容。因此,可以将输出语句250a与合适的情绪类型代码240b相关联,从而使用户110会感觉到语音输出270中呈现的适当的情绪内容。
例如,如果对话引擎240规定语义内容240a与某个棒球队已经赢得世界职业棒球大赛冠军的信息对应,并且用户110又是该棒球队的球迷,则选择情绪类型代码240b来表示“激动”(相反,例如,中性或者不快乐)以匹配用户的情绪状态有可能会为用户110带去更令人满意的交互体验。
图3图示了通过对话引擎240执行的用于生成适当的语义内容和相关联的情绪类型代码的处理的示例性实施例240.1。注意,图3仅仅是用于图示的目的被示出,并不意味着将本公开的范围局限于本文描述的技术的任何特定应用。
在图3中,对话引擎240.1包括语义内容生成框310和情绪类型分类框320(在本文中也被称为“分类框”)。框310和320都提供有用户对话输入230a,该用户对话输入230a可以包括用户110在当前或者任何先前的对话会话中对一个或者多个语句或者查询执行的语言理解230的输出。具体地,语义内容生成框310生成与要递送至用户的信息对应的语义内容240.1a,而情绪类型分类框320生成适当的要赋予语义内容240.1a的情绪类型(由情绪类型代码240.1b表示)。注意,用户对话输入230a可以被理解为包括来自当前的或者先前的对话会话的用户输入的任何一个或者所有,例如,如存储在本地设备存储器上的历史文件中。
除了用户对话输入230a之外,框320还提供有“事实或者简档”输入301,其可以包括从在其上实施有对话引擎240.1的设备的使用得到的参数。情绪类型分类框320可以根据一种或者多种算法,基于事实或者简档输入301和用户对话输入230a的组合,来生成适当的情绪类型代码240.1b,例如,利用根据下文进一步公开的机器学习技术离线训练后的参数。在示例性实施例中,情绪类型代码240.1b可以包括对情绪(例如,“快乐”等)以及指示表现出来的情绪(例如,1到5之间的数字,5表示“非常快乐”)到达的程度的程度指示符两者的描述。在示例性实施例中,可以将情绪类型代码240.1b表示为诸如在情绪标记语言(EmotionML)中规定的、用于指定可以被赋予输出语音的多个预定的情绪类型中的一个预定的情绪类型的格式。
要注意,对于智能手机等现代消费性设备,当前的趋势是不断扮演不可或缺的个人助理的角色,将多样的特征集合集成到用户频繁并且经常连续地携带的单个移动设备。由单个用户针对众多目的(例如,语音通信、互联网接入、日程计划、娱乐消遣等)对该设备的重复使用允许通过交互式对话***200潜在地访问用于选择情绪类型代码240.1b的大量相关数据。例如,如果针对智能手机启动定位服务,则可以使用关于一段时间内用户的地理场所的数据来推断某些用户的地理偏好,例如,是当地体育团队的粉丝、或者喜欢尝试某个区域内的新餐馆等。生成相关数据的使用场景的其它实例包括,但不限于,通过使用智能手机接入互联网以执行话题或者关键字搜索、安排日历日期或者约会、在设备初始化期间设置用户简档等。这种数据可以由对话***统一利用以访问在与用户110的交互式对话会话期间要赋予语义内容240.1a的适当的情绪类型代码240.1b。鉴于这种使用场景,其对于从实施交互式对话***的移动通信设备的使用得出至少一个或者甚至多个事实或者简档输入301尤其有利。
图4图示了根据本公开的情绪类型分类框的示例性实施例320.1。在图4中,通过设备120获取的示例性事实或者简档输入301.1包括***设计者选作为与情绪类型分类任务有关的多个事实或者简档参数402-422。注意,示例性事实或者简档输入301仅仅是为了图示的目的而给出。在备选的示例性实施例中,可以省略事实或者简档输入301的任何单独参数,和/或可以添加在图4中未示出的其它参数。参数402-422不需要描述参数的不相交类,即,由情绪类型分类框320.1使用的单个类型的输入可能同时落入输入402-422的两个以上的类别中。这种备选的示例性实施例被构想为在本公开的范围内。
用户配置402包括用户110直接输入到设备120用于辅助情绪类型分类的信息。在示例性实施例中,在设备120的设置期间,或者通常在设备120的运行期间,可能会要求用户110回答一系列简档问题。例如,可能会查询用户110关于年龄和性别、爱好、兴趣、喜爱的电影、运动、性格特点等。在一些实例中,可以通过询问来自性格简档问卷的问题来推断关于用户的性格特点的信息(例如,外向或者内向、强势或者柔顺等)。可以存储来自用户配置402的信息以供由情绪类型分类框320.1后面用于选择情绪类型代码240.1b。
用户在线活动404包括互联网使用情况统计和/或经由设备120发送至互联网或者其它网络以及从互联网或者其它网络发送的数据的内容。在示例性实施例中,在线活动404可以包括用户搜索查询,例如,经由设备120提交至Web搜索引擎的用户搜索引擎。可以对用户搜索查询的内容、以及其它统计数据(诸如,相似查询的频率和/或定时等)进行记录。在示例性实施例中,在线活动404可以进一步包括频繁访问的网站的身份、邮件消息的内容、社交媒体网站的发帖等。
用户通信406包括通过使用设备120进行文本或者语音通信。这种通信可以包括,例如,经由短消息服务(SMS)发送的文本消息、通过无线网络进行的语音呼叫等。用户通信406还可以包括在本地或者第三方社交媒体网络(例如,通过用户110使用设备120访问的互联网网站)上的消息、或者即时消息发送或者聊天应用等。
用户位置408可以包括可用于设备120的用户位置的记录,例如,经由与一个或者多个蜂窝基站的无线通信、或者基于互联网的位置服务,如果启用这种服务的话。用户位置408可以进一步指定用户的位置上下文,例如,如果用户在家或者在工作、在车里、在拥挤的环境中、在开会等。
日历/日程安排功能/本地日期和时间410可以包括基于用户活动的日程表的与情绪分类有关的时间信息。例如,用户110可以将设备120用作个人日程安排组织器来提出这种信息作为前提。在示例性实施例中,在用户的日历上的时间段是可用还是不可用可以与情绪类型的分类有关。而且,也可以与即将到来的约会(例如,安排好的休假或者重要的商务会议)的性质有关。
日历/日程安排功能/本地日期和时间410可以进一步包含信息,诸如,某个时间是否与用户的工作时间重叠、或者当前日期是否对应周末等。
用户情绪状态412包括与用户的实时情绪状态的确定有关的数据。这种数据可以包括用户对对话***表达的内容、以及语音参数、生理信号等。可以进一步利用情绪识别技术,通过感测,例如,传送至设备120和从设备120传来的用户语音、面部表情和最近文本消息、如通过设备120上的各种传感器(例如,物理传感器输入420)感测到的包括体温和心率在内的生理信号等来推断用户的情绪。
设备使用情况统计414包括有关用户110如何频繁的使用设备120、用户已经使用了设备120多长时间、为何目的等的信息。在示例性实施例中,可以记录用户在一天内与设备120交互的次数和频率、以及在这些交互期间使用的应用或者访问的网站。
在线信息资源416可以包括如从在线源处获得的与用户的兴趣有关的新闻或者事件。例如,基于用户110是体育团队的粉丝的确定,在线信息资源416可以包括该体育团队最近已经赢得比赛的新闻。备选地,如果用户110被确定为对某种菜肴的类型有偏好,例如,则在线信息资源416可以包括在用户的家附近刚刚开了一家该菜肴的类型的新餐厅的新闻。
数字助理(DA)性格418可以为对话***指定性格简档,从而使得用户与对话***的交互更接近地模拟与人类助理的交互。DA性格简档可以指定,例如,DA是外向或者内向、强势或者柔顺、或者DA的性别。例如,DA性格418可以为数字助理指定对应于女性、开朗性格的简档。注意,可以备选地或者与***性格框255(如上文参照图2描述的)结合地提供该特征。
物理传感器输入420可以包括从设备120上的用于感测设备120的物理参数的传感器得到的信号。例如,物理传感器输入420可以包括来自设备120中的加速度计和/或陀螺仪的感测器信号,例如,以确定用户110当前是在行走还是在车中,等等。用户的当前移动状况的知识可以为辅助生成适当的情绪响应的情绪类型分类框320.1提供信息。物理传感器输入420还可以包括来自设备120上的麦克风或者其它声学记录设备的传感器信号,例如,以基于背景噪声来推断环境的特性,等等。
对话历史422可以包括在用户与数字助理之间的现在的和过去的对话的任何记录。
可以提供事实或者简档输入301.1以及用户对话输入230a,作为情绪类型分类框320.1的情绪类型分类算法450的输入。情绪类型分类算法450可以将由具体的事实或者简档输入301.1和用户对话输入230a指定的多维向量映射至情绪类型代码240.1b的具体输出确定,例如,指定适当的情绪类型和该情绪的对应程度。
图5图示了混合情绪类型分类算法的示例性实施例450.1。注意,图5的仅仅是出于图示的目的被示出,并不表示在将本公开的范围限制于所示出的任何特定类型的算法。
在图5中,情绪类型分类算法450.1包括用于选取用于选择情绪类型时要使用的至少一种算法的算法选择框510。在示例性实施例中,该至少一种算法包括基于规则的算法512和已受训练算法514。基于规则的算法512可以对应于由对话***的设计者指定的算法,并且通常可以基于设计者所辨别的用于为特定场景、事实、简档、和/或用户对话输入分配给定情绪类型的基本原理。另一方面,已受训练算法514可以对应于其参数和功能映射是从较大的训练数据集合(例如,离线)得到的算法。应当理解的是,相较于基于规则的算法512,在已受训练算法514中的输入与输出之间的相互关系对于***设计者而言可能不太透明,并且,在从算法训练中确定的变量中,已受训练算法514通常可以获得更复杂的相互依赖性。
从图5可见,基于规则的算法512和已受训练算法514可以接受事实或者简档输入301.1和用户对话输入230a作为输入。在任何实例中,算法选择框510可以选择算法512或者514中适当的一个以用于选择情绪类型代码240.1b。例如,响应于与一组预定的值对应的事实或者简档输入301.1和/或用户对话输入230a,选择框510可以选择实施特定的基于规则的算法512,而非已受训练算法514,反之亦然。在示例性实施例中,在某些情况下,基于规则的算法512在某些情况下相对于已受训练算法514可能更优选,例如,如果在某些实例中它们基于根本原理的设计可能会引起更准确的情绪类型分类。在某些场景中,基于规则的算法512也可能会是优选的,其中例如,不存在足够的训练数据来设计某种类型的已受训练算法514。在示例性实施例中,当针对设计者其是相对简单地基于一组特定的输入得到期望的响应时,可以选择基于规则的算法512。
图6图示了基于规则的算法的示例性实施例600。注意,图6的仅仅是出于图示的目的被示出,并不旨在将本公开的范围限制于基于规则的算法,限制于基于规则的算法的任何特定实施方式,或者限制于示出的事实或者简档输入301.1或者情绪类型240b的任何特定格式或者内容。
在图6中,在判定框610中,确定用户情绪状态412是否为“快乐”。如果为否,则该算法进入框612,其将情绪类型代码240b设置为“中性”。如果为是,则该算法进入判定框620。
在判定框620中,进一步确定用户配置402的性格参数402.1是否为“外向”。如果为否,则该算法进入框622,其将情绪类型代码240b设置为“感兴趣(1)”,用程度1来表示“感兴趣”的情绪类型。如果为是,则该算法进入框630,其将情绪类型代码240b设置为“快乐(3)”。
应当理解的是,在外向的用户更会投入到展示出更乐观的或者“更快乐”的情绪类型的对话***的假设下,基于规则的算法600基于用户性格选择性地设置情绪类型代码240b。在当前快乐的用户会更积极地响应具有快乐的情绪类型的***的假设下,基于规则的算法600进一步基于当前的用户情绪状态来设置情绪类型代码240b。在备选的示例性实施例中,可以容易地设计出本文中未明确描述的其它基于规则的算法,以将情绪类型代码240b与事实或者简档输入301.1的其它参数和值相关联。
如算法600所图示的,情绪类型代码240b的确定并非总是需要利用事实或者简档输入301.1和用户对话输入230a中的所有可用参数。具体地,算法600仅仅利用用户情绪状态412和用户配置402。利用可用参数的任何子集的算法的这种示例性实施例、以及利用本文未明确描述的参数的算法的备选的示例性实施例被构想为在本公开的范围内。
图7图示了基于规则的算法的备选的示例性实施例700。在图7中,在判定框710中,确定用户对话输入230a是否与用户针对更新的新闻的查询相对应。如果为是,则该算法进入判定框720。
在判定框720中,确定用户情绪状态412是否为“快乐”,并且进一步确定在线信息资源416是否指示用户喜爱的体育团队刚刚赢得了比赛。在示例性实施例中,可以从事实或者简档输入301.1(例如,从用户配置402、用户在线活动404、日历/安排功能410等)的其它参数得到用户喜爱的体育团队。如果判定框720的输出为“是”,则该算法进入框730,其中将情绪类型代码240b设置为“激动(3)”。
除了用于选择情绪类型代码240b的基于规则的算法之外,情绪类型分类算法450.1可以可备选地或者结合利用已受训练算法。图8图示了用于得到用于选择情绪类型的已受训练算法的训练方案的示例性实施例800。注意,图8仅仅是出于图示的目的被示出,并不旨在将本公开的范围限制于用于训练用于选择情绪类型的算法的任何特定技术。
在图8中,在训练阶段801期间,向算法训练框810提供输入,该输入包括一系列或者多个参考事实或者简档输入301.1*、对应的一系列参考先前用户输入230a*、和对应的一系列参考情绪类型代码240.1b*。注意,在本文中,用大括号括起来的参数x({x})表示多个或者一系列对象x。具体地,每个参考事实或者简档输入301.1*与事实或者简档输入301.1的设置的具体组合对应。
例如,一个示例性参考事实或者简档输入301.1*可以指定用户配置402包括“外向”的性格类型,指定用户在线活动404包括针对短语“海鹰队”的在线搜索的多个实例,指定用户位置408与作为所在城市的“西雅图”对应,等等。与该参考事实或者简档输入301.1*对应,参考用户对话输入230a*可以包括关于最新体育新闻的用户查询。在备选的实例中,与该参考事实或者简档输入301.1*对应的参考用户对话输入230a*可以是NULL字符串,指示不存在先前的用户输入。基于参考事实或者简档输入301.1*和对应的参考用户对话输入230a*的该示例性组合,在训练阶段801期间,可以将参考情绪类型代码240.1b*指定给算法训练框810。
在示例性实施例中,可以通过人类注释器或者判断器来提供针对参考事实或者简档输入301.1*和用户对话输入230a*的特定设置的适当的参考情绪类型代码240.1b*。在训练阶段801期间,可以向这些人类注释器呈现参考事实或者简档输入和参考用户输入的单独的组合,并且可以利用响应于该情况的合适的情绪类型来对各个组合进行注释。可以通过使用许多人类注释器和参考事实或者简档输入和先前的用户输入的许多组合来重复该过程,从而使得大量的训练数据可用于算法训练框810。基于训练数据和参考情绪类型注释,可以为已受训练算法得到一组最佳的已受训练算法参数810a,该已受训练算法最准确地将参考输入的给定组合映射至参考输出。
在示例性实施例中,人类注释器可以控制与数字助理的性格的对应特性相似或者相同的某些特性。例如,人类注释器可以具有与例如由***性格255和/或数字助理性格418指定的数字助理的配置特性相同的性别或者性格类型。
算法训练框810配置为,响应于参考事实或者简档输入301.1*、用户对话输入230a*、和参考情绪类型代码240.1b*的多个提供的实例,得到一组算法参数,例如,权重、结构、系数等,其最佳地将输入的各个组合映射至提供的参考情绪类型。在示例性实施例中,可以通过机器学习(例如,监督学习)来利用技术,这些技术最佳地得到将输入映射至输出的普遍规则。因此,算法训练框810生成一组最佳的已受训练算法参数810a,将该组参数提供给已受训练算法框514的示例性实施例514.1。诸如图5所示的。具体地,框514.1根据已受训练算法参数810a在实时运算802期间选择情绪类型240.1b。
下文进一步提供了本公开的技术的示例性应用的图示性说明。注意,该示例仅仅是出于图示的目的被给出,不表示将本公开的范围限制于任何具体集合或者类型的事实或者简档输入、***响应、或者场景。
Mark是个足球迷。他一直关注有关全国足球联赛(NFL)的新闻。作为西雅图的居民,他喜爱的团队是西雅图海鹰队。每个周日Mark都会使用其智能手机在线观看足球比赛,并且通过在线聊天应用与朋友讨论球员和团队。他还在社交媒体应用上分享他的活动和兴趣。几个月之前,当海鹰队在加时赛中打赢旧金山淘金者时,他非常激动并且在他的社交媒体简档页面上广泛地讨论这场胜利。
在给定的周一,在周一足球之夜这档节目中,海鹰队在旧金山对战旧金山淘金者。遗憾的是,Mark与客户进餐并且错过了这场比赛。这次晚餐对于Mark是一场重要的会议,因为他即将完成一宗商业交易。事实证明,该会议非常顺利,客户接受了Mark的提议。晚餐之后,在Mark开车回家的路上,他在智能手机上启动交互式对话***(或者数字助理DA)进行实时语音对话。
Mark:“嘿,晚餐很棒!我达成了交易。我想Don(Mark的老板)会喜欢的。”
数字助理(采用乐观的音调):“太好了!听起来不错。”(DA响应1)
Mark:“好啦,海鹰队情况怎么样?告诉我吧!”
数字助理(采用激动的音调):“你猜怎么着,你的海鹰队赢了。他们以30比25战胜了旧金山淘金者队。Russell Wilson在第四节传出两个触地球。”(DA响应2)
Mark:“哇,太棒了。很遗憾我错过了这场比赛。我相信今年他们会再次进入季后赛!”
数字助理(继续以激动的语调,稍微更柔和):“是的!在季后赛期间我应该锁定你的日历。我想你不会想要错过!”(DA响应3)
上述示例说明了本公开的技术的多个方面。具体地,交互式对话***知道Mark是个足球迷,并且是海鹰队的球迷。其从,例如,Mark在其数字助理上配置的显式设置获得该信息,该信息指示Mark想要追踪足球新闻以及他喜爱的团队是海鹰队。DA还从在线信息源知晓海鹰队在该晚与其对手球队(旧金山淘金者队)比赛并且知晓海鹰队成功实现逆转战胜了他们。这使DA在向Mark汇报海鹰队的新闻时能够选择与激动语调(DA响应2)对应的情绪类型。而且,基于Mark的偏好及其先前的输入的知识,DA在建议在其日历上为Mark锁定时间时选择激动的语调(DA响应3)。
对话***进一步具有关于Mark的性格的信息,如从例如Mark对其智能手机的使用方式(例如,使用频率、使用时间等)、Mark在设置其智能手机期间指示的个人兴趣和爱好、以及对其社交媒体网络的状态更新得到的。在该示例中,对话***可以基于机器学习算法确定Mark是个性格外向和认真的人,该机器学习算法设计为处理通过Mark对其手机的使用方式生成的大量统计数据来推断Mark的性格。
从Mark在两个月之前启动DA***并且之后一直定期地、越来越频繁地使用DA这一事实推得到另外的信息。在上一周,Mark每天平均与DA交互五次。在示例性实施例中,某些情绪类型分类算法可以由于这种交互频率推断在Mark与DA之间不断增加的亲密度。
DA进一步从Mark的语音确定Mark的当前情绪状态为快乐。从他对设备上的日历/日程安排功能的使用,DA知道它是在工作时间之后,并且知道Mark刚刚结束了与客户的会议。在该交互期间,DA标识Mark在车中,例如,通过与车辆的电子设备建立无线蓝牙连接、通过加速度计确定的在行走间隔之后出现的静止的间隔、较低的车内背景噪声水平、测得的移动速度等。此外,从过去的数据,诸如,与当日时间统计数据匹配的位置数据历史等,猜测Mark晚餐后正开车回家。因此,诸如参照图4中的框450.1描述的分类算法,DA选择与乐观音调对应的情绪类型(DA响应1)。
图9图示了根据本公开的方法900的示例性实施例。注意,图9仅仅是出于图示的目的被示出,并不旨在将本公开的范围限制于所示出的任何特定的方法。
在图9中,在框910中,该方法包括基于至少一个事实或者简档输入来选择与输出语句相关联的情绪类型代码,该情绪类型代码指定多个预定的情绪类型中的一个预定的情绪类型。
在框920中,该方法包括生成对应于输出语句的语音,该语音被生成为具有由情绪类型代码指定的预定的情绪类型。在示例性实施例中,该至少一个事实或者简档输入是从对实施交互式对话***的移动通信设备的使用得到的。
图10示意性地示出了可以在上述方法和过程中的一个或者多个上执行的非限制性计算***1000。以简化的方式示出了计算***1000。要理解,应当理解,在不脱离本公开的范围的情况下,可以使用事实上任何计算机架构。在不同实施例中,计算***1000可以采用大型计算机、服务器计算机、云计算***、桌面计算机、膝上型计算机、平板计算机、家庭娱乐计算机、网络计算设备、移动计算设备、移动通信设备、智能手机、游戏设备等的形式。
计算***1000包括处理器1010和存储器1020。计算***1000可以可选地包括显示子***、通信子***、传感器子***、相机子***、和/或在图10中未示出的其它部件。计算***1000还可以可选地包括用户输入设备,诸如,键盘、鼠标、游戏控制器、相机、麦克风、和/或触摸屏。
处理器1010可以包括配置为执行一个或者多个指令的一个或者多个物理设备。例如,处理器可以配置为执行作为一个或者多个应用、服务、程序、例程、库、对象、组件、数据结构、或者其它逻辑结构的一部分的一个或者多个指令。可以实施这种指令以执行任务、实施数据类型、转换一个或者多个设备的状态、或者达到期望的结果。
处理器可以包括配置为执行软件指令的一个或者多个处理器。附加地或者备选地,处理器可以包括配置为执行硬件或者固件指令的一个或者多个硬件或者固件逻辑机。处理器的处理器可以是单核或者多核,并且在处理器上执行的程序可以配置为进行并行处理或者分布式处理。处理器可以可选地包括分布在两个以上设备上的单独的部件,这些设备可以设置得较远和/或配置为进行协调处理。可以通过远程可访问的配置在云计算配置中的联网计算设备来虚拟化和执行处理器的一个或者多个方面。
存储器1020可以包括配置为保存可由处理器执行以实施本文描述的方法和过程的数据和/或指令的一个或者多个物理设备。当实施这种方法和过程时,可以转变存储器1020的状态(例如,保存不同的数据)。
存储器1020可以包括可移除介质和/或内置设备。存储器1020可以包括光学存储器设备(例如,CD、DVD、HD-DVD、Blu-Ray Disc等)、半导体存储器设备(例如,RAM、EPROM、EEPROM等)、和/或磁性存储器设备(例如,硬盘驱动器、软盘驱动器、磁带驱动器、MRAM等)等等。存储器1020可以包括具有一个或者多个如下特性的设备:易失性的、非易失性的、动态的、静态的、读/写、只读、随机存取、顺序存取、位置可寻址、文件可寻址、和内容可寻址。在一些实施例中,处理器1010和存储器1020可以集成到一个或者多个公共设备中,诸如,专用集成电路或者片上***。
存储器1020也可以采用可移除计算机可读存储介质的形式,该可移除计算机可读存储介质可用于存储和/或传送可执行数据和/或指令以实施本文描述的方法和过程。存储器1020可以采用CD、DVD、HD-DVD、Blu-Ray Discs、EEPROM、和/或软盘等的形式。
应当理解,存储器1020包括存储信息的一个或者多个物理设备。术语“模块”、“程序”和“引擎”可以用于描述被实施为执行一种或者多种特定功能的计算***1000的一个方面。在一些情况下,可以经由执行由存储器1020保存的指令的处理器1010来实例化这种模块、程序或者引擎。应当理解,可以从相同的应用、服务、代码块、对象、库、例程、API、功能等来实例化不同的模块、程序和/或引擎。同样,可以通过不同的应用、服务、代码块、对象、例程、API、功能等来实例化相同的模块、程序和/或引擎。术语“模块”、“程序”和“引擎”旨在囊括单独的或者成组的可执行文件、数据文件、库、驱动器、脚本、数据库记录等。
在一个方面中,计算***1000可以对应于包括存储器1020的计算设备,该存储器1020保持可由处理器1010执行的指令以基于至少一个事实或者简档输入、与输出语句相关联的情绪类型代码来选择指定多个预定的情绪类型中的一个预定的情绪类型的情绪类型代码。指令可进一步由处理器1010执行以生成与输出语句对应的语音,该语音被生成为具有由情绪类型代码指定的预定的情绪类型。在示例性实施例中,该至少一个事实或者简档输入是从对实施交互式对话***的移动通信设备的使用得到的。注意,应该将这种计算设备理解为与过程、机器、制造、或者物质的组成相对应。
图11图示了根据本公开的设备1100的示例性实施例。注意,设备1100仅仅是出于图示的目的被示出,并不表示将本公开的范围限制于所示出的任何特定的设备。
在图11中,分类框1120配置为基于至少一个事实或者简档输入1120b,选择与输出语句110a相关联的情绪类型代码120a。情绪类型代码1120a指定多个预定的情绪类型中的一个。文本转语音框1130被配置为生成对应于输出语句1110a和由情绪类型代码1120a指定的预定的情绪类型的语音1130a。在示例性实施例中,该至少一个事实或者简档输入1120b是从实施交互式对话***的移动通信设备的使用得到的。
注意,不需要将本公开的技术限制于包含移动通信设备的实施例。在备选的示例性实施例中,本技术也可以包含在非移动设备中,例如,桌面计算机、家庭游戏***等。而且,不需要将包含本技术的移动通信设备局限于智能手机,并且其还可以包括可穿戴设备,诸如,计算机化腕表、眼镜等。这种备选的示例性实施例被构想为在本公开的范围内。
图12图示了示例性实施例1200,其中,本公开的技术包含在具有向显示的文本赋予了情绪内容而不是听见的语音或者除了可听见的语音之外的对话***。注意,图12中示出的框与图2中的相似标记的框对应,并且,为了便于图示,从图12中省略了图2中示出的某些框。
在图12中,将语言生成框250的输出250a与对话引擎240生成的情绪类型代码240b组合,并且输入至文本转语音和/或用于显示的文本的框1260。在文本转语音方面中,框1260利用语义内容240a和情绪类型代码240b生成语音。在用于显示的文本方面中,框1260可替代地或者进一步利用语义内容240a和情绪类型代码240b生成用于显示的文本。应当理解,情绪类型代码240b可以通过使用如下技术向显示的文本赋予情绪:例如,调节显示的文本字符的大小或者字体、提供与情绪类型代码240b对应的情绪符(例如,笑脸或者其它图片)等。在示例性实施例中,框1260可替代地或者进一步生成基于情绪的动画、或者对表示DA或者显示器上的用户的一个或者多个化身的图形修改。例如,如果情绪类型代码240b与“伤心”对应,则可以利用预先配置的“伤心”面部表情来生成预先选择的表示DA的化身,或者进行动画处理以通过运动(例如,哭泣动作)来表达伤心。这种备选的示例性实施例被构想为在本公开的范围内。
在本说明书和权利要求书中,应当理解,当提及元件“连接至”或者“耦合至”另一元件时,该元件可以直接连接或者耦合至该另一元件,也可以存在中间元件。相反,当提及元件“直接连接至”或者“直接耦合至”另一元件时,不存在中间元件。而且,当提及元件“电耦合至”另一元件时,表示在这种元件之间存在低电阻路径,而当仅提及元件“耦合至”另一元件时,在这种元件之间可能存在也可能不存在低电阻路径。
可以至少部分地通过一个或者多个硬件和/或软件逻辑部件来执行本文描述的功能。例如,并且没有限制的情况下,可以使用的硬件逻辑部件的说明性类型包括现场可编程门阵列(FPGA)、专用集成电路(ASIC)、程序专用标准产品(ASSP)、片上******(SOC)、复杂可编程逻辑设备(CPLD)等。
虽然本发明易受各种修改和替代结构的影响,在附图中示出了本发明的某些图示的实施例,并且已经在上面详细描述了这些实施例。然而,应该理解,并不意图将本发明限制于所公开的具体形式,相反,旨在涵盖落入本发明的精神和范围内的所有修改、替代结构和等效物。

Claims (10)

1.一种用于交互式对话***的装置,所述装置包括:
分类框,被配置为基于至少一个事实或简档输入来选择与输出语句相关联的情绪类型代码,所述情绪类型代码指定多个预定的情绪类型中的一个预定的情绪类型;以及
文本转语音框,被配置为生成对应于所述输出语句的语音,所述语音被生成以具有由所述情绪类型代码指定的所述预定的情绪类型;
其中所述至少一个事实或简档输入是从实施所述交互式对话***的移动通信设备的使用得到的。
2.根据权利要求1所述的装置,所述移动通信设备被配置为提供语音呼叫和互联网接入服务,所述装置进一步包括被配置为以自然语言生成所述输出语句的语言生成框,所述输出语句具有预定的语义内容和与所述情绪类型代码相关联的指定的预定的情绪类型。
3.根据权利要求1所述的装置,所述至少一个事实或简档输入包括由所述用户配置的至少一个用户配置参数,所述至少一个用户配置参数包括爱好、兴趣、性格特点、喜爱的电影、喜爱的运动、和喜爱的菜肴的类型中的至少一个。
4.根据权利要求1所述的装置,所述至少一个事实或简档输入还包括从使用所述装置的用户在线活动得到的至少一个参数,从用户在线活动得到的所述至少一个参数包括互联网搜索查询、接入的互联网网站、邮件消息的内容、和到在线社交媒体网站的发布中的至少一个。
5.根据权利要求1所述的装置,所述至少一个事实或简档输入还包括用户位置、用户文本或者语音通信的内容、和所述用户使用所述装置的日历安排功能安排的至少一个事件中的至少一个。
6.根据权利要求1所述的装置,所述至少一个事实或简档输入还包括当前用户情绪状态、设备使用统计、在线信息资源、和数字助理性格中的至少一个。
7.据权利要求1所述的装置,所述分类框被配置为使用包括在多个参考事实或者简档输入与对应的多个参考情绪类型之间的至少一个功能映射的算法来选择所述情绪类型代码,所述至少一个功能映射是从机器学习技术得到的。
8.一种计算设备,所述计算设备包括处理器和保持指令的存储器,当所述指令由所述处理器可执行时:
基于至少一个事实或者简档输入来选择与输出语句相关联的情绪类型代码,所述情绪类型代码指定多个预定的情绪类型中的一个预定的情绪类型;以及
生成对应于所述输出语句的语音,所述语音被生成以具有由所述情绪类型代码指定的所述预定的情绪类型;
其中所述至少一个事实或者简档输入是从实施交互式对话***的移动通信设备的使用得到的。
9.一种方法,所述方法包括:
基于至少一个事实或者简档输入来选择与输出语句相关联的情绪类型代码,所述情绪类型代码指定多个预定的情绪类型中的一个预定的情绪类型;以及
生成对应于所述输出语句的语音,所述语音被生成以具有由所述情绪类型代码指定的所述预定的情绪类型;
其中所述至少一个事实或者简档输入是从实施交互式对话***的移动通信设备的使用得到的。
10.根据权利要求9所述的方法,所述至少一个事实或者简档输入包括用户位置、由所述用户配置的用户配置参数、用户在线活动、用户位置、用户文本或者语音通信的内容、和由所述用户使用日历安排功能安排的至少一个事件中的至少一个。
CN201580065944.XA 2014-12-04 2015-12-02 用于交互式对话***的情绪类型分类 Pending CN107003997A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/561,190 US9786299B2 (en) 2014-12-04 2014-12-04 Emotion type classification for interactive dialog system
US14/561,190 2014-12-04
PCT/US2015/063301 WO2016089929A1 (en) 2014-12-04 2015-12-02 Emotion type classification for interactive dialog system

Publications (1)

Publication Number Publication Date
CN107003997A true CN107003997A (zh) 2017-08-01

Family

ID=55025379

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580065944.XA Pending CN107003997A (zh) 2014-12-04 2015-12-02 用于交互式对话***的情绪类型分类

Country Status (11)

Country Link
US (2) US9786299B2 (zh)
EP (1) EP3227885A1 (zh)
JP (1) JP6803333B2 (zh)
KR (2) KR102632775B1 (zh)
CN (1) CN107003997A (zh)
AU (2) AU2015355097B2 (zh)
BR (1) BR112017010047B1 (zh)
CA (1) CA2967976C (zh)
MX (1) MX2017007317A (zh)
RU (1) RU2705465C2 (zh)
WO (1) WO2016089929A1 (zh)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107657017A (zh) * 2017-09-26 2018-02-02 百度在线网络技术(北京)有限公司 用于提供语音服务的方法和装置
CN108009287A (zh) * 2017-12-25 2018-05-08 北京中关村科金技术有限公司 一种基于对话***的回答数据生成方法以及相关装置
CN108091324A (zh) * 2017-12-22 2018-05-29 北京百度网讯科技有限公司 语气识别方法、装置、电子设备和计算机可读存储介质
CN108154888A (zh) * 2017-12-26 2018-06-12 四川沐迪圣科技有限公司 一种基于语音特征的可穿戴设备监测心理健康方法
CN108597509A (zh) * 2018-03-30 2018-09-28 百度在线网络技术(北京)有限公司 智能语音交互实现方法、装置、计算机设备及存储介质
CN109460270A (zh) * 2017-08-22 2019-03-12 微软技术许可有限责任公司 社交网络的成员所说语言的确定
CN109493885A (zh) * 2018-11-13 2019-03-19 平安科技(深圳)有限公司 心理状态评估及调节方法、装置及存储介质、服务器
CN109857352A (zh) * 2017-11-30 2019-06-07 富泰华工业(深圳)有限公司 动画显示方法及人机交互装置
CN110019848A (zh) * 2017-12-22 2019-07-16 深圳市优必选科技有限公司 对话交互方法、装置及机器人
CN110705584A (zh) * 2019-08-21 2020-01-17 深圳壹账通智能科技有限公司 情绪识别方法、装置、计算机装置及存储介质
CN110930994A (zh) * 2018-09-19 2020-03-27 三星电子株式会社 用于提供语音助理服务的***和方法
CN111226194A (zh) * 2018-09-27 2020-06-02 三星电子株式会社 提供交互界面的方法和***
CN111475206A (zh) * 2019-01-04 2020-07-31 优奈柯恩(北京)科技有限公司 用于唤醒可穿戴设备的方法及装置
JP2020166839A (ja) * 2019-03-29 2020-10-08 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 関連付け関心点に基づく文推奨方法及び装置
CN111788621A (zh) * 2018-02-27 2020-10-16 微软技术许可有限责任公司 移情式个人虚拟数字助理
CN111819628A (zh) * 2018-02-06 2020-10-23 Vi实验室有限公司 数字个人助理
US10873816B2 (en) 2018-12-05 2020-12-22 Sonova Ag Providing feedback of an own voice loudness of a user of a hearing device
CN112396185A (zh) * 2021-01-21 2021-02-23 中国人民解放军国防科技大学 一种事实验证方法、***、计算机设备和存储介质
CN112989822A (zh) * 2021-04-16 2021-06-18 北京世纪好未来教育科技有限公司 识别对话中句子类别的方法、装置、电子设备和存储介质
CN113791690A (zh) * 2021-09-22 2021-12-14 入微智能科技(南京)有限公司 一种带有实时情绪识别功能的人机交互公共设备

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9786299B2 (en) * 2014-12-04 2017-10-10 Microsoft Technology Licensing, Llc Emotion type classification for interactive dialog system
US9722965B2 (en) * 2015-01-29 2017-08-01 International Business Machines Corporation Smartphone indicator for conversation nonproductivity
US10884503B2 (en) * 2015-12-07 2021-01-05 Sri International VPA with integrated object recognition and facial expression recognition
US20180358021A1 (en) * 2015-12-23 2018-12-13 Intel Corporation Biometric information for dialog system
US10489509B2 (en) 2016-03-14 2019-11-26 International Business Machines Corporation Personality based sentiment analysis of textual information written in natural language
US10831802B2 (en) * 2016-04-11 2020-11-10 Facebook, Inc. Techniques to respond to user requests using natural-language machine learning based on example conversations
US10567312B2 (en) 2016-04-11 2020-02-18 Facebook, Inc. Techniques for messaging bot controls based on machine-learning user intent detection
JP6791669B2 (ja) * 2016-07-12 2020-11-25 Supership株式会社 情報処理装置及びプログラム
US11233760B2 (en) 2016-09-21 2022-01-25 Facebook, Inc. Module ranking for a modular inbox
US10356029B2 (en) 2016-09-21 2019-07-16 Facebook, Inc. Methods and systems for presenting modules in an inbox interface
WO2018060993A1 (en) * 2016-09-27 2018-04-05 Faception Ltd. Method and system for personality-weighted emotion analysis
US10217453B2 (en) * 2016-10-14 2019-02-26 Soundhound, Inc. Virtual assistant configured by selection of wake-up phrase
CN106503805B (zh) * 2016-11-14 2019-01-29 合肥工业大学 一种基于机器学习的双模态人人对话情感分析方法
US9934785B1 (en) * 2016-11-30 2018-04-03 Spotify Ab Identification of taste attributes from an audio signal
US11016719B2 (en) * 2016-12-30 2021-05-25 DISH Technologies L.L.C. Systems and methods for aggregating content
US10452780B2 (en) 2017-02-15 2019-10-22 International Business Machines Corporation Tone analysis of legal documents
US10373278B2 (en) 2017-02-15 2019-08-06 International Business Machines Corporation Annotation of legal documents with case citations
US10318799B2 (en) * 2017-02-16 2019-06-11 Wipro Limited Method of predicting an interest of a user and a system thereof
US10558757B2 (en) * 2017-03-11 2020-02-11 International Business Machines Corporation Symbol management
JP2018167339A (ja) * 2017-03-29 2018-11-01 富士通株式会社 発話制御プログラム、情報処理装置及び発話制御方法
US10535344B2 (en) * 2017-06-08 2020-01-14 Microsoft Technology Licensing, Llc Conversational system user experience
CN109146450A (zh) 2017-06-16 2019-01-04 阿里巴巴集团控股有限公司 支付方法、客户端、电子设备、存储介质和服务器
US11188809B2 (en) * 2017-06-27 2021-11-30 International Business Machines Corporation Optimizing personality traits of virtual agents
CN107516533A (zh) * 2017-07-10 2017-12-26 阿里巴巴集团控股有限公司 一种会话信息处理方法、装置、电子设备
US11487986B2 (en) * 2017-10-13 2022-11-01 Microsoft Technology Licensing, Llc Providing a response in a session
CN107945848A (zh) * 2017-11-16 2018-04-20 百度在线网络技术(北京)有限公司 一种健身指导实现方法、装置、设备和介质
CN110301117B (zh) * 2017-11-24 2022-10-21 微软技术许可有限责任公司 用于在会话中提供响应的方法和装置
US10636419B2 (en) * 2017-12-06 2020-04-28 Sony Interactive Entertainment Inc. Automatic dialogue design
US10783329B2 (en) * 2017-12-07 2020-09-22 Shanghai Xiaoi Robot Technology Co., Ltd. Method, device and computer readable storage medium for presenting emotion
US10372825B2 (en) 2017-12-18 2019-08-06 International Business Machines Corporation Emotion detection and expression integration in dialog systems
CN111954889A (zh) * 2018-01-29 2020-11-17 埃美杰斯有限责任公司 用于促成基于情感状态的人工智能的***和方法
US20190325866A1 (en) * 2018-04-20 2019-10-24 Spotify Ab Systems and Methods for Enhancing Responsiveness to Utterances Having Detectable Emotion
US10621983B2 (en) * 2018-04-20 2020-04-14 Spotify Ab Systems and methods for enhancing responsiveness to utterances having detectable emotion
US10622007B2 (en) * 2018-04-20 2020-04-14 Spotify Ab Systems and methods for enhancing responsiveness to utterances having detectable emotion
WO2019235100A1 (ja) * 2018-06-08 2019-12-12 株式会社Nttドコモ 対話装置
JP2021529382A (ja) 2018-06-19 2021-10-28 エリプシス・ヘルス・インコーポレイテッド 精神的健康評価のためのシステム及び方法
US20190385711A1 (en) 2018-06-19 2019-12-19 Ellipsis Health, Inc. Systems and methods for mental health assessment
US11132681B2 (en) 2018-07-06 2021-09-28 At&T Intellectual Property I, L.P. Services for entity trust conveyances
US10802872B2 (en) 2018-09-12 2020-10-13 At&T Intellectual Property I, L.P. Task delegation and cooperation for automated assistants
US11354507B2 (en) 2018-09-13 2022-06-07 International Business Machines Corporation Compared sentiment queues
US20200099634A1 (en) * 2018-09-20 2020-03-26 XRSpace CO., LTD. Interactive Responding Method and Computer System Using the Same
CN109359181B (zh) * 2018-09-27 2021-11-19 深圳前海微众银行股份有限公司 负面情绪原因识别方法、设备及计算机可读存储介质
CN111048062B (zh) * 2018-10-10 2022-10-04 华为技术有限公司 语音合成方法及设备
US11481186B2 (en) 2018-10-25 2022-10-25 At&T Intellectual Property I, L.P. Automated assistant context and protocol
CN109352666A (zh) * 2018-10-26 2019-02-19 广州华见智能科技有限公司 一种基于机器语音对话的情感发泄方法及***
FR3089324A1 (fr) * 2018-11-29 2020-06-05 Orange Procédé de détermination d’un agent conversationnel sur un terminal
US11222631B2 (en) * 2018-12-11 2022-01-11 International Business Machines Corporation Performance evaluation using audio and structured feedback
US11854538B1 (en) * 2019-02-15 2023-12-26 Amazon Technologies, Inc. Sentiment detection in audio data
KR20200113105A (ko) 2019-03-22 2020-10-06 삼성전자주식회사 응답을 제공하는 전자 장치와 이의 동작 방법
WO2020209647A1 (ko) * 2019-04-09 2020-10-15 네오사피엔스 주식회사 사용자 인터페이스를 통해 텍스트에 대한 합성 음성을 생성하는 방법 및 시스템
RU2720359C1 (ru) * 2019-04-16 2020-04-29 Хуавэй Текнолоджиз Ко., Лтд. Способ и оборудование распознавания эмоций в речи
TWI751560B (zh) * 2019-05-20 2022-01-01 仁寶電腦工業股份有限公司 語音轉文字裝置以及語音轉文字方法
WO2020235712A1 (ko) * 2019-05-21 2020-11-26 엘지전자 주식회사 콘텐츠 기반의 스타일을 갖는 텍스트 또는 음성을 생성하는 인공 지능 장치 및 그 방법
CN110287323B (zh) * 2019-06-27 2020-10-23 成都冰鉴信息科技有限公司 一种面向目标的情感分类方法
CN110413788B (zh) * 2019-07-30 2023-01-31 携程计算机技术(上海)有限公司 会话文本的场景类别的预测方法、***、设备和存储介质
KR20210020656A (ko) * 2019-08-16 2021-02-24 엘지전자 주식회사 인공 지능을 이용한 음성 인식 방법 및 그 장치
US11587561B2 (en) * 2019-10-25 2023-02-21 Mary Lee Weir Communication system and method of extracting emotion data during translations
US20210209289A1 (en) * 2020-01-07 2021-07-08 Samsung Electronics Co., Ltd. Method and apparatus for generating customized content based on user intent
JP7248615B2 (ja) * 2020-03-19 2023-03-29 ヤフー株式会社 出力装置、出力方法及び出力プログラム
US11735206B2 (en) * 2020-03-27 2023-08-22 Harman International Industries, Incorporated Emotionally responsive virtual personal assistant
CN112883145B (zh) * 2020-12-24 2022-10-11 浙江万里学院 一种面向中文评论的情感多倾向分类方法
WO2022214616A1 (en) * 2021-04-09 2022-10-13 Interdigital Ce Patent Holdings, Sas Personalizing audio-visual content based on user's interest
US20230169990A1 (en) * 2021-12-01 2023-06-01 Verizon Patent And Licensing Inc. Emotionally-aware voice response generation method and apparatus
KR20230116605A (ko) * 2022-01-28 2023-08-04 주식회사 마블러스 감성, 집중도, 대화를 통합한 인공지능 기반 상호작용 장치, 방법 및 프로그램
CN116030811B (zh) * 2023-03-22 2023-06-30 广州小鹏汽车科技有限公司 语音交互方法、车辆及计算机可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1643575A (zh) * 2002-02-26 2005-07-20 Sap股份公司 智能个人助理
CN101030368A (zh) * 2006-03-03 2007-09-05 国际商业机器公司 在保持情感的同时跨通道进行通信的方法和***
US20080096533A1 (en) * 2006-10-24 2008-04-24 Kallideas Spa Virtual Assistant With Real-Time Emotions

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3799134B2 (ja) * 1997-05-28 2006-07-19 ソニー株式会社 システムおよび通知方法
IL122632A0 (en) * 1997-12-16 1998-08-16 Liberman Amir Apparatus and methods for detecting emotions
US6246672B1 (en) * 1998-04-28 2001-06-12 International Business Machines Corp. Singlecast interactive radio system
US6144938A (en) 1998-05-01 2000-11-07 Sun Microsystems, Inc. Voice user interface with personality
JP4465730B2 (ja) * 1999-01-20 2010-05-19 日本ビクター株式会社 対話装置
US7222075B2 (en) 1999-08-31 2007-05-22 Accenture Llp Detecting emotions using voice signal analysis
US6151571A (en) 1999-08-31 2000-11-21 Andersen Consulting System, method and article of manufacture for detecting emotion in voice signals through analysis of a plurality of voice signal parameters
US6598020B1 (en) * 1999-09-10 2003-07-22 International Business Machines Corporation Adaptive emotion and initiative generator for conversational systems
US6757362B1 (en) 2000-03-06 2004-06-29 Avaya Technology Corp. Personal virtual assistant
CN1283428C (zh) 2000-03-31 2006-11-08 索尼公司 机器人设备、控制机器人设备动作的方法
JP3561211B2 (ja) 2000-06-27 2004-09-02 株式会社東芝 情報処理装置および不揮発性記憶装置の書き換え制御方法
US20020029203A1 (en) * 2000-09-01 2002-03-07 Pelland David M. Electronic personal assistant with personality adaptation
TWI221574B (en) * 2000-09-13 2004-10-01 Agi Inc Sentiment sensing method, perception generation method and device thereof and software
WO2002067194A2 (en) 2001-02-20 2002-08-29 I & A Research Inc. System for modeling and simulating emotion states
JP2002304188A (ja) 2001-04-05 2002-10-18 Sony Corp 単語列出力装置および単語列出力方法、並びにプログラムおよび記録媒体
EP1256937B1 (en) * 2001-05-11 2006-11-02 Sony France S.A. Emotion recognition method and device
US20030093280A1 (en) * 2001-07-13 2003-05-15 Pierre-Yves Oudeyer Method and apparatus for synthesising an emotion conveyed on a sound
US20030167167A1 (en) 2002-02-26 2003-09-04 Li Gong Intelligent personal assistants
KR20050015584A (ko) * 2003-08-06 2005-02-21 삼성전자주식회사 감정 표현이 가능한 통신 장치 및 방법
KR100680191B1 (ko) * 2003-09-05 2007-02-08 삼성전자주식회사 감정 있는 에이전트를 갖는 사전 행동적 사용자 인터페이스 시스템
US7944448B2 (en) 2005-06-14 2011-05-17 Omron Corporation Apparatus and method for socially intelligent virtual entity
JP4965322B2 (ja) * 2007-04-17 2012-07-04 日本電信電話株式会社 ユーザ支援方法、ユーザ支援装置およびユーザ支援プログラム
CN101474481B (zh) 2009-01-12 2010-07-21 北京科技大学 情感机器人***
KR101594057B1 (ko) * 2009-08-19 2016-02-15 삼성전자주식회사 텍스트 데이터의 처리 방법 및 장치
US8719277B2 (en) * 2011-08-08 2014-05-06 Google Inc. Sentimental information associated with an object within a media
RU2553413C2 (ru) * 2012-08-29 2015-06-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Воронежский государственный университет" (ФГБУ ВПО "ВГУ") Способ выявления эмоционального состояния человека по голосу
RU2530267C2 (ru) * 2012-11-28 2014-10-10 Общество с ограниченной ответственностью "Спиктуит" Способ коммуникации пользователя с информационной диалоговой системой
WO2014113889A1 (en) 2013-01-23 2014-07-31 Persuasive Labs Inc. Method and apparatus for adapting customer interaction based on assessed personality
CN103198827B (zh) * 2013-03-26 2015-06-17 合肥工业大学 基于韵律特征参数和情感参数关联性的语音情感修正方法
KR101504699B1 (ko) * 2013-04-09 2015-03-20 얄리주식회사 유무선 통신 네트워크를 이용한 음성대화방법 및 장치
US20140343947A1 (en) 2013-05-15 2014-11-20 GM Global Technology Operations LLC Methods and systems for managing dialog of speech systems
US8971183B1 (en) * 2013-09-08 2015-03-03 Divyahans Gupta Control signal traffic profile based mobile application access management
US9514748B2 (en) * 2014-01-15 2016-12-06 Microsoft Technology Licensing, Llc Digital personal assistant interaction with impersonations and rich multimedia in responses
US10803850B2 (en) * 2014-09-08 2020-10-13 Microsoft Technology Licensing, Llc Voice generation with predetermined emotion type
US9786299B2 (en) * 2014-12-04 2017-10-10 Microsoft Technology Licensing, Llc Emotion type classification for interactive dialog system
US9641563B1 (en) * 2015-11-10 2017-05-02 Ricoh Company, Ltd. Electronic meeting intelligence

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1643575A (zh) * 2002-02-26 2005-07-20 Sap股份公司 智能个人助理
CN101030368A (zh) * 2006-03-03 2007-09-05 国际商业机器公司 在保持情感的同时跨通道进行通信的方法和***
US20080096533A1 (en) * 2006-10-24 2008-04-24 Kallideas Spa Virtual Assistant With Real-Time Emotions

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109460270A (zh) * 2017-08-22 2019-03-12 微软技术许可有限责任公司 社交网络的成员所说语言的确定
CN107657017A (zh) * 2017-09-26 2018-02-02 百度在线网络技术(北京)有限公司 用于提供语音服务的方法和装置
CN107657017B (zh) * 2017-09-26 2020-11-13 百度在线网络技术(北京)有限公司 用于提供语音服务的方法和装置
CN109857352A (zh) * 2017-11-30 2019-06-07 富泰华工业(深圳)有限公司 动画显示方法及人机交互装置
TWI674516B (zh) * 2017-11-30 2019-10-11 鴻海精密工業股份有限公司 動畫顯示方法及人機交互裝置
CN108091324A (zh) * 2017-12-22 2018-05-29 北京百度网讯科技有限公司 语气识别方法、装置、电子设备和计算机可读存储介质
CN108091324B (zh) * 2017-12-22 2021-08-17 北京百度网讯科技有限公司 语气识别方法、装置、电子设备和计算机可读存储介质
US10964338B2 (en) 2017-12-22 2021-03-30 Beijing Baidu Netcom Science And Technology Co., Ltd. Mood recognition method, electronic device and computer-readable storage medium
CN110019848A (zh) * 2017-12-22 2019-07-16 深圳市优必选科技有限公司 对话交互方法、装置及机器人
CN108009287A (zh) * 2017-12-25 2018-05-08 北京中关村科金技术有限公司 一种基于对话***的回答数据生成方法以及相关装置
CN108154888A (zh) * 2017-12-26 2018-06-12 四川沐迪圣科技有限公司 一种基于语音特征的可穿戴设备监测心理健康方法
CN111819628A (zh) * 2018-02-06 2020-10-23 Vi实验室有限公司 数字个人助理
CN111819628B (zh) * 2018-02-06 2022-09-20 Vi实验室有限公司 数字个人助理
CN111788621B (zh) * 2018-02-27 2022-06-03 微软技术许可有限责任公司 移情式个人虚拟数字助理
CN111788621A (zh) * 2018-02-27 2020-10-16 微软技术许可有限责任公司 移情式个人虚拟数字助理
CN108597509A (zh) * 2018-03-30 2018-09-28 百度在线网络技术(北京)有限公司 智能语音交互实现方法、装置、计算机设备及存储介质
US11848012B2 (en) 2018-09-19 2023-12-19 Samsung Electronics Co., Ltd. System and method for providing voice assistant service
CN110930994B (zh) * 2018-09-19 2024-04-09 三星电子株式会社 用于提供语音助理服务的***和方法
CN110930994A (zh) * 2018-09-19 2020-03-27 三星电子株式会社 用于提供语音助理服务的***和方法
CN111226194A (zh) * 2018-09-27 2020-06-02 三星电子株式会社 提供交互界面的方法和***
CN109493885A (zh) * 2018-11-13 2019-03-19 平安科技(深圳)有限公司 心理状态评估及调节方法、装置及存储介质、服务器
US10873816B2 (en) 2018-12-05 2020-12-22 Sonova Ag Providing feedback of an own voice loudness of a user of a hearing device
CN111475206A (zh) * 2019-01-04 2020-07-31 优奈柯恩(北京)科技有限公司 用于唤醒可穿戴设备的方法及装置
JP7008096B2 (ja) 2019-03-29 2022-01-25 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド 関連付け関心点に基づく文推奨方法及び装置
US11593434B2 (en) 2019-03-29 2023-02-28 Baidu Online Network Technology (Beijing) Co., Ltd. Sentence recommendation method and apparatus based on associated points of interest
JP2020166839A (ja) * 2019-03-29 2020-10-08 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 関連付け関心点に基づく文推奨方法及び装置
CN110705584A (zh) * 2019-08-21 2020-01-17 深圳壹账通智能科技有限公司 情绪识别方法、装置、计算机装置及存储介质
US11521041B2 (en) 2021-01-21 2022-12-06 National University Of Defense Technology Fact validation method and system, computer device and storage medium
CN112396185B (zh) * 2021-01-21 2021-05-11 中国人民解放军国防科技大学 一种事实验证方法、***、计算机设备和存储介质
CN112396185A (zh) * 2021-01-21 2021-02-23 中国人民解放军国防科技大学 一种事实验证方法、***、计算机设备和存储介质
CN112989822B (zh) * 2021-04-16 2021-08-27 北京世纪好未来教育科技有限公司 识别对话中句子类别的方法、装置、电子设备和存储介质
CN112989822A (zh) * 2021-04-16 2021-06-18 北京世纪好未来教育科技有限公司 识别对话中句子类别的方法、装置、电子设备和存储介质
CN113791690A (zh) * 2021-09-22 2021-12-14 入微智能科技(南京)有限公司 一种带有实时情绪识别功能的人机交互公共设备
CN113791690B (zh) * 2021-09-22 2024-03-29 入微智能科技(南京)有限公司 一种带有实时情绪识别功能的人机交互公共设备

Also Published As

Publication number Publication date
US20180005646A1 (en) 2018-01-04
RU2017119007A (ru) 2018-12-03
AU2020239704B2 (en) 2021-12-16
RU2017119007A3 (zh) 2019-06-19
MX2017007317A (es) 2017-08-25
CA2967976C (en) 2022-08-09
KR20220147150A (ko) 2022-11-02
RU2705465C2 (ru) 2019-11-07
AU2015355097A1 (en) 2017-05-25
BR112017010047A2 (pt) 2018-01-02
US9786299B2 (en) 2017-10-10
KR102457486B1 (ko) 2022-10-20
WO2016089929A1 (en) 2016-06-09
EP3227885A1 (en) 2017-10-11
AU2015355097B2 (en) 2020-06-25
KR102632775B1 (ko) 2024-02-01
JP2018503894A (ja) 2018-02-08
JP6803333B2 (ja) 2020-12-23
BR112017010047B1 (pt) 2023-03-14
CA2967976A1 (en) 2016-06-09
KR20170092603A (ko) 2017-08-11
AU2020239704A1 (en) 2020-10-15
US10515655B2 (en) 2019-12-24
US20160163332A1 (en) 2016-06-09

Similar Documents

Publication Publication Date Title
CN107003997A (zh) 用于交互式对话***的情绪类型分类
CN110998725B (zh) 在对话中生成响应
US10809876B2 (en) Virtual assistant conversations
CN104813311B (zh) 用于多人的虚拟代理推荐的***和方法
JP6558364B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP7242736B2 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
CN107480161A (zh) 用于媒体探究的智能自动化助理
CN107491929A (zh) 数据驱动的自然语言事件检测和分类
CN115212561B (zh) 基于玩家的语音游戏数据的服务处理方法及相关产品
JP2019091387A (ja) 情報処理装置及びプログラム
CN113383345A (zh) 用于定义情感机器的方法和***
Zoghaib Voice Marketing
CN117959715A (zh) 交互方法、装置、介质及电子设备
CN117959716A (zh) 交互方法、装置、介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20170801

RJ01 Rejection of invention patent application after publication