CN110462676A - 电子装置、其控制方法和非暂态计算机可读记录介质 - Google Patents

电子装置、其控制方法和非暂态计算机可读记录介质 Download PDF

Info

Publication number
CN110462676A
CN110462676A CN201880019376.3A CN201880019376A CN110462676A CN 110462676 A CN110462676 A CN 110462676A CN 201880019376 A CN201880019376 A CN 201880019376A CN 110462676 A CN110462676 A CN 110462676A
Authority
CN
China
Prior art keywords
natural language
chat server
chat
data
matching score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201880019376.3A
Other languages
English (en)
Inventor
崔畅桓
尹志奂
郑万运
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority claimed from PCT/KR2018/002766 external-priority patent/WO2018174443A1/en
Publication of CN110462676A publication Critical patent/CN110462676A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/02User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Tourism & Hospitality (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Machine Translation (AREA)
  • Operations Research (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种电子装置包括包含被配置为接收自然语言输入的输入电路的输入单元、包括被配置为执行与多个外部聊天服务器的通信的通信电路的通信器以及处理器,处理器被配置为分析自然语言的特性和用户的特性并从多个聊天服务器当中识别与自然语言对应的聊天服务器,以及控制通信器将自然语言发送到所识别的聊天服务器,以便接收关于自然语言的响应。

Description

电子装置、其控制方法和非暂态计算机可读记录介质
技术领域
本公开涉及电子装置、其控制方法和非暂态计算机可读记录介质,并且例如涉及能够在一定难度级别的用户话语上匹配聊天服务器的电子装置、其控制方法和非暂态计算机可读记录介质。
另外,本公开涉及人工智能(AI)***及其应用,人工智能***使用机器学习算法来模仿人脑的功能,例如识别和确定。
背景技术
人工智能(AI)***是可以实现人类级别的智能的计算机***,与常规基于规则的智能***不同,人工智能(AI)***是其中机器独自地进行训练和确定并且变得更智能的智能***。人工智能***的使用提高了识别率并且有助于更准确地理解用户的品味。因此,常规基于规则的智能***已经逐渐被基于深度学习的人工智能***所取代。
人工智能技术包括机器学习(例如深度学习)技术和利用机器学习技术的基本(elemental)技术。机器学习技术可以指例如对输入数据的特性进行分类并独自地进行训练的算法技术。基本技术使用例如深度学习的机器学习算法,并且包括例如语言理解、视觉理解、推断/预测、知识表示、运动控制等技术。
人工智能技术应用于各种技术领域。例如,语言理解是用于识别和应用/处理人类语言/字符的技术,并且包括自然语言处理、机器翻译、对话***、查询响应、语音识别/合成等功能。视觉理解是用于从人的视点识别和处理对象的技术,包括对象识别、对象跟踪、图像搜索、人类识别、场景理解、空间理解、图像增强等。推断/预测是用于确定、逻辑推断和预测信息的技术,包括基于知识/概率的推断、优化预测、基于偏好的计划、推荐等。知识表示是用于将人类体验信息自动化为知识数据的技术,包括知识构建(数据生成/分类)、知识管理(数据利用)等。运动控制是用于控制车辆的自主运行和机器人的运动的技术,包括运动控制(导航、碰撞和运行)、操作控制(行为控制)等。
现有的聊天服务器对于未完全理解用户话语来说除了检索和提供预先存储的响应之外不能做更多的事情。由于所有聊天服务器都实现为具有相同的规格,因此即使处理简单的问题也过度使用资源。
发明内容
技术问题
本公开的一个方面涉及提供一种电子装置、其控制方法和非暂态计算机可读记录介质,所述电子装置能够基于人工智能技术评估用户输入的自然语言的难度级别,并且基于所评估的难度级别将具有最佳规格(specification)的聊天服务器与输入的自然语言进行匹配。
技术方案
根据示例实施例,提供了一种电子装置,该电子装置包括:包含被配置为接收自然语言输入的输入电路的输入单元、包括被配置为执行与多个外部聊天服务器的通信的通信电路的通信器以及处理器,其被配置为分析自然语言的特性和用户的特性并从多个外部聊天服务器当中识别与自然语言对应的聊天服务器,以及控制通信器将自然语言发送到所识别的聊天服务器,从而接收关于自然语言的响应。
所述处理器还可以被配置为执行自然语言的预处理,分析预处理的自然语言的特性和用户的特性,并且从多个外部聊天服务器当中确定与预处理的自然语言对应的聊天服务器,以及控制通信器将预处理的自然语言发送到所确定的聊天服务器。
所述处理器还可以被配置为关于多个聊天服务器中的每一个,计算(确定)关于预处理的自然语言的第一匹配得分、关于包括预处理的自然语言的对话模式的第二匹配得分、关于用户的情绪的第三匹配得分和关于用户的特性的第四匹配得分中的至少一个;关于多个聊天服务器中的每一个,使用第一至第四匹配得分中的至少一个计算(确定)关于多个聊天服务器中的每一个的最终匹配得分,并且从多个聊天服务器当中确定具有最高最终匹配得分的聊天服务器作为与预处理的自然语言对应的聊天服务器。
可以基于赋予预处理的自然语言中包括的单词的加权值和词频/逆文档频率(TF/IDF)值来计算(确定)第一匹配得分,其中,基于与预先存储的对话模式数据的相似性来计算(确定)第二匹配得分,其中,基于预处理的自然语言的情感分析和情绪分析来计算(确定)所述第三匹配得分,并且中,基于用户的年龄、性别、地区和教育中的至少一个来计算(确定)第四匹配得分。
所述电子装置还可包括:存储器,被配置为存储与对应于自然语言的聊天服务器执行的对话的历史信息和关于在其中自然语言被输入的情景的上下文信息。
所述处理器还可以被配置为响应于在接收自然语言之后通过输入单元接收附加自然语言,通过分析附加自然语言的特性和用户的特性,从多个外部聊天服务器当中确定与附加自然语言对应的聊天服务器;和响应于与自然语言对应的聊天服务器不同于与附加自然语言对应的聊天服务器,控制通信器将附加自然语言发送到与附加自然语言对应的聊天服务器。
所述处理器还可以被配置为控制通信器将与对应于自然语言的聊天服务器执行的对话的历史信息和上下文信息连同附加自然语言一起发送到与附加自然语言对应的聊天服务器。
所述多个聊天服务器可以包括第一聊天服务器、第二聊天服务器和第三聊天服务器中的两个或更多个,第一聊天服务器、第二聊天服务器和第三聊天服务器基于自然语言输入的特性和用户的特性提供关于自然语言输入的响应。
第一聊天服务器是使用预先存储的响应数据库提供与自然语言输入对应的响应的聊天服务器,其中,第二聊天服务器是通过使用第一响应模型确定自然语言输入的上下文来提供响应的聊天服务器,并且其中,第三聊天服务器是通过使用第二响应模型推断包括在自然语言输入中的问题来提供响应的聊天服务器。
根据示例实施例,提供了一种包括接收自然语言的用于控制电子装置的方法,该方法包括:通过分析自然语言的特性和用户的特性,从多个外部聊天服务器当中确定与自然语言对应的聊天服务器,并将自然语言发送到所确定的聊天服务器以接收关于自然语言的响应。
该方法还可以包括执行自然语言的预处理,其中,所述确定包括分析预处理的自然语言的特性和用户的特性,并从多个外部聊天服务器当中确定与预处理的自然语言对应的聊天服务器,并且其中,所述发送包括将预处理的自然语言发送到所确定的聊天服务器。
所述确定还可以包括:关于多个聊天服务器中的每一个,计算(确定)关于预处理的自然语言的第一匹配得分、关于包括预处理的自然语言的对话模式的第二匹配得分、关于用户的情绪的第三匹配得分和关于用户的特性的第四匹配得分;对于多个聊天服务器中的每一个,使用第一至第四匹配得分中的至少一个计算(确定)多个聊天服务器中的每一个的最终匹配得分,并且从多个外部聊天服务器当中确定具有最高最终匹配得分的聊天服务器作为与预处理的自然语言对应的聊天服务器。
可以基于赋予预处理的自然语言中包括的单词的加权值和词频/逆文档频率(TF/IDF)值来计算(确定)第一匹配得分,其中,基于与预先存储的对话模式数据的相似性来计算(确定)第二匹配得分,其中,基于预处理的自然语言的情感分析和情绪分析来计算(确定)第三匹配得分,并且其中,基于用户的年龄、性别、地区和教育中的至少一个来计算(确定)第四匹配得分。
该方法还可以包括存储与对应于自然语言的聊天服务器执行的对话的历史信息和关于在其中自然语言被输入的情景的上下文信息。
该方法还可以包括在接收自然语言之后从用户接收附加自然语言,通过分析附加自然语言的特性和用户的特性,从多个外部聊天服务器当中确定与附加自然语言对应的聊天服务器,并且响应于与自然语言对应的聊天服务器不同于与附加自然语言对应的聊天服务器,将附加自然语言发送到与附加自然语言对应的聊天服务器。
发送附加自然语言可以包括将与对应于自然语言的聊天服务器执行的对话的历史信息和上下文信息连同附加自然语言一起发送到与附加自然语言对应的聊天服务器。
多个聊天服务器可以包括第一聊天服务器、第二聊天服务器和第三聊天服务器中的两个或更多个,第一聊天服务器、第二聊天服务器和第三聊天服务器基于自然语言输入的特性和用户的特性提供关于自然语言输入的响应。
第一聊天服务器是使用预先存储的响应数据库提供与自然语言输入对应的响应的聊天服务器,其中,第二聊天服务器是通过使用第一响应模型确定自然语言输入的上下文来提供响应的聊天服务器,并且其中,第三聊天服务器是通过使用第二响应模型推断包括在自然语言输入中的问题来提供响应的聊天服务器。
根据示例实施例,提供了一种计算机程序产品,该计算机程序产品包括命令,当由处理器执行时,所述命令使电子装置执行包括以下操作的操作:接收自然语言输入;通过分析自然语言的特性和用户的特性,从多个聊天服务器中识别与自然语言对应的聊天服务器;和将自然语言发送到所识别的聊天服务器,以便接收关于自然语言的响应。
优点
根据本公开的各种实施例,可以通过根据用户输入的自然语言动态地改变聊天服务器来向用户提供最佳聊天服务器。另外,当提供基于聊天的用户响应服务时,可以减少不必要的资源使用。
附图说明
通过以下结合附图进行理解的详细描述,本公开的上述和其他方面、特征和伴随的优点将变得更加明了,在附图中相同的附图标记表示相同的元件,并且其中:
图1是示出根据本公开的实施例的聊天机器人***的示例构思的图;
图2是示出根据本公开的实施例的电子装置的示例配置的框图;
图3是示出根据本公开的实施例的电子装置的示例的框图;
图4是示出根据本公开的一些实施例的示例处理器的框图;
图5A是示出根据本公开的一些实施例的示例数据训练单元的框图;
图5B是示出根据本公开的一些实施例的示例数据识别单元的框图;
图6是示出根据本公开的实施例的用于确定自然语言的难度级别的示例方法的表;
图7A和7B是示出根据本公开的实施例的用于通过分析自然语言来计算匹配得分的示例方法的表;
图8是示出根据本公开的实施例的用于通过分析对话模式来计算匹配得分的示例方法的表;
图9是示出根据本公开的另一实施例的聊天机器人***的示例配置的框图;
图10和11是示出根据本公开的各种实施例的用于控制电子装置的示例方法的流程图;
图12A和12B是示出根据本公开的另一实施例的聊天机器人***的示例构思的图;和
图13是示出根据本公开的实施例的控制匹配机器人的示例方法的流程图。
具体实施方式
本公开中使用的所有术语(包括技术和科学术语)具有与相关领域的技术人员通常理解的含义相同的含义。然而,这些术语可以根据本领域技术人员的意图、法律或技术解释以及新技术的出现而变化。另外,可以任意地选择一些术语。这些术语可以具有本文定义的含义,并且除非另有说明,否则可以基于本公开的全部内容和本领域的普通技术知识来解释。
例如“第一”、“第二”等的术语可用于描述各种元件,但这些元件不应受这些术语的限制。这些术语仅用于将一个元件与其他元件进行区分。例如,在不脱离本公开的范围的情况下,第一组件可以被称为第二组件,并且类似地,第二组件也可以被称为第一组件。术语“和/或”可以包括多个相关项目的任何组合或多个相关项目中的任何项目。
本申请中使用的术语仅用于描述特定示例实施例,并不旨在限制本公开。除非上下文另有明确说明,否则本公开中的单数形式也旨在包括复数形式。将进一步理解,例如“包括”或“具有”等的术语旨在指示所公开的特征、数量、操作、动作、组件、部件或其组合的存在,而不旨在排除可能存在或可能添加一个或多个其他特征、数量、操作、动作、组件、部件或其组合的可能性。
在示例实施例中,“模块”、“单元”或“部件”执行至少一个功能或操作,并且可以被实现为硬件(例如处理器或集成电路)、由处理器执行的软件或其任何组合。此外,多个“模块”、多个“单元”或多个“部件”可以集成到至少一个模块中,并且可以被实现为除应在特定硬件中实现的“模块”、“单元”或“部件”之外的至少一个处理器。
在下文中,将参考附图更详细地描述各种示例实施例。
图1是示出根据本公开的实施例的聊天机器人***的示例构思的图。
参考图1,聊天机器人***1000可以包括电子装置100以及第一、第二和第三聊天服务器210、220和230。多个聊天服务器210、220和230可以具有不同的规格、资源和响应处理模型。例如,多个聊天服务器210、220和230可以具有不同的CPU功能。
聊天机器人***1000可以包括能够响应用户输入的自然语言的电子装置100和服务器200。例如,电子装置100的示例可以例如包括但不限于包括PC、智能TV、智能电话、平板PC、语音识别设备、音频设备等。服务器200可以包括一系列聊天服务器设备,或者可以实现为包括多个处理器的单个设备,其中每个处理器作为单独的聊天机器人进行操作。
根据实施例,电子装置100可以基于用户输入的自然语言选择多个聊天服务器210、220和230中的一个。例如,用户输入的自然语言可以是用户用语音说出的句子或用户以文本格式输入的句子。用户说出或键入的句子可以包括主语和动词,或者可以包括主语、动词或宾语中的一个或多个。替代地,用户说出或输入的句子可以仅包括特定单词。
例如,电子装置100可以确定自然语言是否涉及简单查询或者需要通过推断进行语言理解。基于确定结果,电子装置100可以选择多个聊天服务器210、220和230中的一个。
电子装置100可以将用户输入的自然语言发送到由电子装置选择的多个聊天服务器210、220和230中的一个。由电子装置选择的多个聊天服务器210、220和230中的一个可以生成关于用户输入的自然语言的响应。多个聊天服务器210、220和230中的每一个可以包括用于生成响应的不同模型。例如,用于生成对于特定自然语言的响应的初学者级别模型、用于掌握上下文的中间级别模型和用于通过推断理解语言的高级级别模型可以例如但不限于的分别存储在多个聊天服务器210、220和230中。
根据本公开的另一实施例,电子装置100可以仅执行输入/输出功能,并且服务器200可以通过分析自然语言来匹配对应的聊天服务器。
根据本公开的另一实施例,电子装置100可以仅仅执行上述操作。电子装置100可以操作在具有不同资源使用频率的多个聊天模式中。例如而不限制,电子装置100可以操作在以下模式中的一个中:具有高达20%的有限CPU性能的第一聊天模式、具有高达50%的有限CPU性能的第二聊天模式以及具有高达100%的有限CPU性能的第三聊天模式。电子装置100可以根据CPU性能限制的程度使用不同的响应模型。例如,当使用20%的CPU性能时,电子装置100可以使用用于简单响应的响应模型,而当使用100%的CPU性能时,电子装置100可以使用包括推断功能的响应模型。
在下文中,如图1所示,将描述其中电子装置100确定自然语言的难度级别并匹配对应的聊天服务器的示例实施例。
图2是示出根据本公开的实施例的电子装置的示例配置的框图。参考图2,电子装置100可以包括输入单元(例如,包括输入电路)110、通信器(例如,包括通信电路)120和处理器(例如,包括处理电路)130。
输入单元110可以包括各种输入电路并从用户接收自然语言。例如但不限制,输入单元110可以实现为麦克风等,以接收由用户说出的语音作为自然语言。根据另一非限制性示例,输入单元110可以实现为键盘、触摸屏等,以接收由用户以文本格式而不是语音格式输入的自然语言。
通信器120可以包括各种通信电路并且与多个外部聊天服务器执行通信。例如,通信器120可以将通过输入单元110输入的自然语言发送到聊天服务器。通信器120可以从聊天服务器接收关于自然语言的响应。
处理器130可以包括各种处理电路并分析自然语言的特性。例如,处理器130可以执行输入的自然语言的预处理。处理器130可以分析预处理的自然语言的特性。基于自然语言的特性和用户的特性,处理器130可以确定多个聊天服务器当中用于处理自然语言的最合适的聊天服务器。例如,处理器130可以确定自然语言的难度级别,并且在能够处理在所确定的难度级别的自然语言的多个聊天服务器当中确定最少资源消耗的聊天服务器,作为与自然语言对应的聊天服务器。
处理器130可以实时地改变与自然语言对应的聊天服务器。例如,在输入处于低难度级别的自然语言然后输入处于高难度级别的自然语言的情况下,处理器130可以使用具有高处理性能的响应模型来重新确定聊天服务器,作为与自然语言对应的聊天服务器。当聊天服务器改变时,处理器130可以将与先前聊天服务器执行的对话的内容提供给新的聊天服务器。通过数据同步,处理器130可以容易地改变聊天服务器。
电子装置100可以根据查询的内容、用户的情绪等提供相应的响应。通过区分用于提供各种级别的响应的聊天服务器的规格,可以减少对资源的不必要使用。
图3是示出根据本公开的实施例的电子装置的示例的框图。参考图3,电子装置100可以包括输入单元(例如,包括输入电路)110、通信器(例如,包括通信电路)120、处理器(例如,包括处理电路)130、存储器140、显示器150和扬声器160。
输入单元110可以包括各种输入电路并从用户接收语音、文本等。例如,输入单元110可以处理从用户接收的语音信号。响应于模拟形式的用户语音被接收,输入单元110可以执行输入用户语音的采样并将输入的用户语音转换为数字信号。输入单元110可以计算(确定)数字信号的能量并确定数字信号的能量是否大于预定值。如果数字信号的能量大于预定值,则输入单元110可以从数字信号中去除噪声分量,并将去除了噪声元件的数字信号发送到处理器130。例如,噪声分量可以是周围环境可能出现的突然噪声。
通信器120可以包括各种通信电路并且执行与在外部源的服务器200的通信。电子装置100可以直接执行例如但不限于语音识别、匹配得分计算、对应的服务器确定等,或者通过向服务器200发送数据向服务器200请求语音识别、匹配得分计算、对应的服务器确定等。例如,通信器120可以将用户语音输入发送到服务器200,并且从服务器200接收与用户语音对应的响应。
为此,通信器120可以包括包含各种通信电路的各种通信模块,例如但不限于,短距离无线通信模块(未示出)、无线通信模块(未示出)等。例如,短距离无线通信模块可以是包括用于根据例如蓝牙、Zigbee等的短距离无线通信方法与位于短距离处的外部设备执行通信的电路的模块。例如,无线通信模块可以是包括连接到外部网络并根据例如WiFi、WiFi直连、IEEE等无线通信协议执行通信的电路的模块。另外,无线通信模块还可以包括移动通信模块,其根据例如第三代(3G)、第三代合作伙伴计划(3GPP)、长期演进(LTE)、LTE高级版(LTE-A)等的各种移动通信标准连接到移动通信网络。
存储器140可以存储用于驱动电子装置100的各种模块、软件和数据。例如,存储器140可以存储识别的语音信息、与聊天服务器执行的对话的历史信息、关于自然语言被输入的情景的上下文信息、用户信息等。在提供响应之后,可以通过进行用户满意度调查等来收集用户信息。
根据另一实施例,存储器140可以存储用于识别用户语音的声学模型(AM)和语言模型(LM)。另外,存储器140可以存储语料库(Corpus),语料库是用于处理自然语言的一组提取语言样本。
例如,存储器140可以是用于存储操作电子装置100所需的各种程序的存储介质,并且以闪存、硬盘驱动器(HDD)和/或固态驱动器(SSD)的形式实现。例如,存储器140可以包括用于存储用于执行电子装置100的操作的程序的ROM和用于根据电子装置100的操作暂时存储数据的RAM。
存储器140可以存储用于形成要在显示器150上显示的各种屏幕的程序和数据。此外,存储器140可以存储用于执行特定服务的程序、应用和数据。
显示器150和扬声器160可以用作输出单元。根据电子装置100的实施例类型,可以包括显示器150和扬声器160中的至少一个。电子装置100可以通过显示器150可视地提供响应,或者通过扬声器160可听地提供响应。
显示器150可以显示与输入的自然语言对应的响应。另外,显示器150可以显示关于输入的自然语言的所有响应。
显示器150可以被实现为例如但不限制于液晶显示器(LCD)、有机发光二极管(OLED)、等离子体显示面板(PDP)等,并且通过电子装置100显示器显示各种可用的屏幕。
扬声器160可以输出语音。例如,在将语音转换为语音信号的情况下,扬声器160可以输出响应。扬声器160可以安装在电子装置10中,或者可以例如但不限于,以例如插孔(jack)等的输出端口的形式实现。
处理器130可以包括各种处理电路并控制电子装置100的上述配置。例如,处理器130可以控制通信器120以将自然语言发送到多个聊天服务器当中被确定为与自然语言对应的聊天服务器的聊天服务器。
处理器130可以例如但不限于被实现为单个CPU以执行语音识别操作、语言理解操作、匹配得分分析操作和聊天服务器确定操作,可以包括多个处理器,或者可以例如但不限于被实现为用于执行特定功能的集成处理器(IP)。例如,处理器130可以基于常规隐马尔可夫模型(HMM)执行语音识别,或者执行例如深度神经网络(DNN)的基于深度学习的语音识别。
处理器130可以预处理输入的自然语言。处理器130可以执行多种操作,例如但不限于,自然语言清洗、自然语言分离、形态分析、实体提取等,作为用于处理自然语言的预处理。例如,处理器130可以执行将输入字符串转换为语素字符串的操作。例如,语素可以是最小的意义单位。
处理器130可以分析预处理的自然语言。例如,处理器130可以执行自然语言分析、对话模式分析、情绪分析、用户年龄/性别分析、元数据分析和用户日志分析等。处理器130可以将每个分析结果表示为计算的匹配得分。基于计算出的匹配得分,处理器130可以确定对应的聊天服务器。
响应于附加自然语言被输入,处理器130可以通过分析附加自然语言来确定对应的聊天服务器。如果与附加自然语言对应的聊天服务器与对应于先前处理的自然语言的聊天服务器不同,则处理器130可以将与对应于先前处理的自然语言的聊天服务器执行的对话的历史信息发送到与附加自然语言对应的聊天服务器。如上所述,尽管改变了聊天服务器(或聊天机器人),但是处理器130可以共享数据,从而防止资源浪费,同时保持响应的一致性。
下面将参考说明性附图进行处理器130的操作的更详细描述。
图4是示出根据本公开的一些实施例的处理器(例如,包括处理电路和/或程序元件)400的框图。根据实施例,处理器400可以包括数据训练单元(例如,包括处理电路和/或程序元件)131和数据识别单元(例如,包括处理电路和/或程序元件)132。处理器400可以是电子装置100的处理器130或服务器200的多个聊天服务器210、220和230中的至少一个的处理器。
数据训练单元131可以训练用于语音识别、语言理解、文本识别和自然语言的难度级别的确定的标准。数据识别单元132可以基于训练的标准识别输入的自然语言的内容。处理器130可以基于识别的内容确定可以向哪个聊天服务器发送自然语言。处理器130可以分析输入的用户语音本身,或者将用户语音转换为文本并分析文本。数据训练单元131可以确定使用哪些数据来识别内容。数据训练单元131可以获得用于训练的数据,并将获得的数据应用于下面将描述的数据识别模型,以训练用于语音识别、语言理解和内容识别的标准。
数据训练单元131可以包括在多个聊天服务器中的每一个中。包括在多个聊天服务器中的每一个中的数据训练单元131可以通过识别用户输入的自然语言来训练用于提供响应的标准。包括在多个聊天服务器中的每一个中的数据训练单元131可以将作为训练结果而生成或细化的数据识别模型存储在多个聊天服务器中的每一个中。例如,多个聊天服务器可以包括用于生成对特定自然语言的响应而训练的初学者级别模型,用于理解上下文的中间级别模型和用于通过推断理解语言的高级级别模型。每个数据训练单元131可以将生成或细化的数据识别模型存储在附加的数据库服务器中。
数据训练单元131可以获得要用于训练的数据并根据训练方法或非训练方法训练数据识别模型。
例如,可以根据对话难度级别(例如,初学者级别、中级级别和高级级别)或对话风格来对多个聊天服务器进行分类。可以根据用户观点对多个聊天服务器进行分类(例如,非常积极、积极、中立、消极和非常消极)。替代地或附加地,可以根据用户情绪(例如,平静、快乐、愤怒、悲伤、抑郁、惊讶和恐惧)对多个聊天服务器进行分类。可以根据用户的年龄、性别、地区和教育等对多个聊天服务器进行分类。
在根据上述标准对多个聊天服务器进行分类的情况下,在数据训练单元131中使用的用于训练的不同数据可以包括在多个聊天服务器中的每一个中。
例如,在根据对话难度级别或对话风格对多个聊天服务器进行分类的情况下,包括在多个聊天服务器当中的第一聊天服务器中的数据训练单元131可以使用{正式语言,对自然语言的响应}实体作为训练目的数据。包括在多个聊天服务器当中的第二聊天服务器中的数据训练单元131可以使用{非正式自然语言,对自然语言的响应}实体作为训练目的数据。另外,包括在多个聊天服务器当中的第三聊天服务器中的数据训练单元131可以使用{非正式术语/俚语自然语言,对自然语言的响应}实体作为训练目的数据。
根据另一实施例,在根据用户观点对多个聊天服务器进行分类的情况下,包括在多个聊天服务器中的每一个中的数据训练单元131可以使用{非常积极的自然语言,对自然语言的响应}实体、{积极的自然语言,对自然语言的响应}实体、{中立的自然语言,对自然语言的响应}实体、{消极的自然语言,对自然语言的响应}实体和{非常消极的自然语言,对自然语言的响应}中的每一个作为训练目的数据。
根据另一实施例,在根据用户情绪对多个聊天服务器进行分类的情况下,包括在多个聊天服务器中的每一个中的数据训练单元131可以使用{正常化的自然语言,对自然语言的响应}实体、{快乐的语言,对自然语言的响应}实体、{愤怒的自然语言,对自然语言的响应}实体、{悲伤的自然语言,对自然语言的响应}实体、{抑郁的自然语言,对自然语言的响应}实体和{恐惧的自然语言,对自然语言的响应}实体中的每一个作为训练目的数据。
根据另一实施例,在根据用户年龄对多个聊天服务器进行分类的情况下,包括在多个聊天服务器中的每一个中的数据训练单元131可以使用{男孩输入的自然语言,对自然语言的响应}实体、{年轻男子输入的自然语言,对自然语言的响应}实体、{中年人输入的自然语言输入,对自然语言的响应}实体和{老年人输入的自然语言,对自然语言的响应}实体中的每一个作为培训目的数据。
根据另一实施例,在根据用户的地区对多个聊天服务器进行分类的情况下,包括在多个聊天服务器中的每一个中的数据训练单元131可以使用{在首尔的人输入的自然语言,对自然语言的响应}实体、{在庆尚道的人输入的自然语言,对自然语言的响应}实体、{在全罗道的人输入的自然语言,对自然语言的响应}实体和{在忠清道的人输入的自然语言,对自然语言的响应}作为训练目的数据。
数据识别单元132可以使用经训练数据识别模型从预定数据识别情景。数据识别单元132可以通过训练根据预定标准获得预定数据,并使用获得的数据作为输入值使用数据识别模型。例如,使用经训练的声学模型和语言模型,数据识别单元132可以识别输入的自然语言。另外,使用通过识别自然语言而获得的数据作为输入值,数据识别单元132可以细化数据识别模型。数据识别单元132可以使用大数据和用户输入数据进行自然语言识别和自然语言分析。
数据识别单元132可以包括在多个聊天服务器中的每一个中。包括在多个聊天服务器中的每一个中的数据识别单元132可以使用用于提供关于自然语言的响应的数据识别模型来提供关于识别目的数据的识别结果。
响应于服务器200的处理器130或电子装置100的处理器130分析用户输入的自然语言并确定聊天服务器以发送自然语言,用户输入的自然语言或用户输入的自然语言被预处理成的自然语言可以被发送到所确定的聊天服务器。
包括在多个聊天服务器中的每一个中的数据识别单元132可以将用户输入的自然语言或预处理的自然语言应用于数据识别模型作为输入值,并获得(或估计、推断或预测)关于自然语言的响应作为识别结果。聊天服务器可以将关于由数据识别单元132获得的关于自然语言的响应发送到电子装置100。
数据训练单元131和数据识别单元132中的至少一个可以例如但不限于以一个或多个硬件芯片的形式制造并安装在电子装置100中。例如但不限制,数据训练单元131和数据识别单元132中的至少一个可以仅以用于人工智能(AI)的硬件芯片的形式制造,或者作为现有通用处理器(例如,CPU或应用处理器)或用于特定功能的IP的一部分被制造以用于以各种类型安装在电子装置100上。例如,用于人工智能(AI)的硬件芯片可以是专用于概率计算的处理器,其具有比常规通用处理器高的并行处理性能,从而在例如机器学习的人工智能领域中快速执行算术运算。
图4示出了安装在电子装置100上的数据训练单元131和数据识别单元132,但是数据训练单元131和数据识别单元132均可以安装在单独的设备上。例如,数据训练单元131和数据识别单元132中的一个可以包括在电子装置100中,而另一个可以包括在服务器中。另外,数据训练单元131和数据识别单元132可以通过有线或无线彼此连接,由数据训练单元131构建的模型信息可以被提供给数据识别单元132,或者输入数据识别单元132的数据可以作为附加训练数据提供给数据训练单元131。
数据训练单元131和数据识别单元132中的至少一个可以被实现为包括各种程序元件的软件模块。在数据训练单元131和数据识别单元132中的至少一个被实现为软件模块(或者包括指令的程序模块)的情况下,软件模块可以存储在非暂态计算机可读记录介质中。可以由操作***(OS)或由预定应用提供至少一个软件模块。替代地或另外地,至少一个软件模块的一部分可以由操作***提供,并且软件模块的其余部分可以由预定应用提供。
图5A是示出根据本公开的一些实施例的示例数据训练单元的框图。参考图5A,根据一些实施例的图4的数据训练单元131可以包括数据获取单元(例如,包括处理电路和/或程序元件)131-1、预处理单元(例如,包括处理电路和/或或程序单元)131-2、训练数据选择单元(例如,包括处理电路和/或程序单元)131-3、模型训练单元(例如,包括处理电路和/或程序单元)131-4和模型评估单元(例如,包括处理电路和/或程序元件)131-5。根据一些实施例的数据训练单元131可以包括数据获取单元131-1和模型训练单元131-4,并且还选择性地包括预处理单元131-2、训练数据选择单元131-3和模型评估单元,或者,可以不包括预处理单元131-2、训练数据选择单元131-3和模型评估单元131-5。
数据获取单元131-1可以获得用于情景确定所需的数据。数据获取单元131-1可以从输入单元110获得自然语言。例如,在通过麦克风输入的用户语音信号被转换为数字信号的情况下,数据获取单元131-1可以获得语音数据。数据获取单元131-1可以通过通信器120从服务器或例如因特网的网络接收训练目的数据。例如,数据获取单元131-1可以接收处于不同级别的自然语言作为训练目的数据。
预处理单元131-2可以预处理所获得的数据,使得所获得的数据可以用于训练情景确定。预处理单元131-2可以以预定格式处理所获得的数据,使得下面将描述的模型训练单元131-4可以使用所获得的数据来训练情景确定。例如,预处理单元131-2可以对获得的自然语言执行形态分析、自然语言分离和实体提取。替代地,在自然语言是语音数据的情况下,预处理单元131-2可以将语音数据转换为文本数据。预处理单元131-2可以对文本数据执行形态分析、自然语言分离和实体提取。
训练数据选择单元131-3可以从预处理数据中选择进行训练所需的数据。可以将所选数据提供给模型训练单元131-4。训练数据选择单元131-3可以根据用于情景确定的预定标准从预处理数据中选择进行训练所需的数据。训练数据选择单元131-3可以通过下面将描述的模型训练单元131-4进行的训练,基于预定标准选择数据。预定标准可以包括,例如,数据属性、数据生成时间、数据创建者、数据可靠性、数据对象、数据生成区域和数据大小中的至少一个。
根据另一实施例,在训练的早期阶段,训练数据选择单元131-3可以移除自然语言数据当中具有高相似性的自然语言数据。换句话说,对于早期训练,训练数据选择单元131-3可以选择具有低相似性的自然语言数据,以便训练易于区分的标准。
训练数据选择单元131-3可以通过训练选择共同满足预定标准之一的自然语言数据。模型训练单元131-4可以训练与已经训练的标准不同的标准。
模型训练单元131-4可以基于训练数据训练用于识别自然语言的标准。模型训练单元131-4可以是关于哪些训练数据可能必须用于自然语言分析的训练标准。
训练数据选择单元131-3可以从多个训练目的数据中选择满足训练标准的自然语言。例如,在训练数据选择单元131-3在其中操作的设备是聊天服务器的情况下,训练数据选择单元131-3可以选择适合于聊天服务器的目的自然语言和包括关于自然语言的响应的实体。特别地,在聊天服务器具有提供关于正式的自然语言的响应的目的的情况下,训练数据选择单元131-3可以从多个训练目的数据选择正式的自然语言和包括关于正式的自然语言的响应的实体。
模型训练单元131-4可以基于训练数据训练用于情景确定的数据识别模型。在这种情况下,数据识别模型可以是预建模型。例如,数据识别模型可以是接收基本训练数据(例如,样本音频数据)的预建模型。根据另一实施例,数据识别模型可以是使用大数据的预建文本分析模型。
可以考虑识别模型的应用领域、训练目的或设备的计算机性能来配置数据识别模型。数据识别模型可以是例如基于神经网络的模型。数据识别模型可以被设计为在计算机上模拟人脑结构。数据识别模型可以包括模拟人类神经网络的神经元的多个加权网络节点。多个网络节点可以各自建立连接关系以模拟经由突触发送和接收信号的神经元的突触活动。数据识别模型可以包括例如神经网络模型或从神经网络模型开发的深度学习模型。在深度学习模型中,多个网络节点可以位于不同的深度(或层),并根据卷积连接关系交换数据。举例来说,例如深度神经网络(DNN)、递归神经网络(RNN)和双向递归深度神经网络(BRDNN)的模型可以用作数据识别模型,但是本公开不限于此。
根据各种实施例,当存在多个预建数据识别模型时,模型训练单元131-4可以确定在输入训练数据和基本训练数据之间具有大关系的数据识别模型。在这种情况下,可以根据数据类型对基本训练数据进行预分类,并且可以针对每种数据类型预建数据识别模型。例如,可以通过各种标准对基本训练数据进行预分类,所述标准例如生成训练数据的区域、生成训练数据的时间、训练数据的大小、训练数据的类型(genre)、训练数据的创建者、训练数据中的对象类型等。
模型训练单元131-4还可以使用训练算法训练数据识别模型,所述训练算法包括例如误差反向传播方法或梯度下降方法。
例如,模型训练单元131-4可以使用训练数据作为输入值,通过监督训练来训练数据识别模型。根据另一实施例,模型训练单元131-4可以通过无监督训练来训练数据识别模型,其中无监督训练通过训练用于情景确定所需的数据类型而无需进一步引导来找到用于确定情景的标准。根据另一实施例,模型训练单元131-4可以使用关于基于训练的情景确定的结果是否正确的反馈,通过强化训练来训练数据识别模型。
在模型训练单元131-4被包括在多个聊天服务器中的每一个中的情况下,模型训练单元131-4可以根据多个聊天服务器中的每一个的目的使用不同的训练目的数据来训练数据识别模型。训练目的的各种实施例可以与使用各种训练目的数据的图4的数据训练单元131的示例对应,因此,这里将不再重复描述。
响应于数据识别模型被训练,模型训练单元131-4可以存储经训练数据识别模型。模型训练单元131-4可以将经训练数据识别模型存储在电子装置100的存储器140中。模型训练单元131-4可以将经训练数据识别模型存储在通过连线或无线网络连接到电子装置100的服务器200的存储器中。模型训练单元131-4可以将经训练数据识别模型存储在附加的数据库服务器中。
存储经训练的数据识别模型的存储器140可以存储与电子装置100的其他配置中的至少一个相关的命令或数据。存储器140可以存储软件和/或程序。例如,程序可以包括内核、中间件、应用程序编程接口(API)和/或应用程序(或“应用”)等。
模型评估单元131-5可以将评估数据输入到数据识别模型,并且如果从评估数据输出的识别结果不满足预定标准,则允许模型训练单元131-4再次训练。评估数据可以是用于评估数据识别模型的预定数据。
例如,如果在经训练数据识别模型关于评估数据的识别结果当中,识别结果不准确的评估数据的数量或比率大于预定阈值,则模型评估单元131-5可以确定该情况不满足预定标准。例如,如果预定标准被确定为比率2%,则当经训练的数据识别模型关于总数1000个评估数据中超过20个的评估数据输出不正确的识别结果时,模型评估单元131-5可以评估经训练数据识别模型不合适。
在存在多个经训练的数据识别模型的情况下,模型评估单元131-5可以评估每个经训练的数据识别模型是否满足预定标准,并且将满足预定标准的经训练的数据识别模型确定为最终数据识别模型。在存在满足预定标准的多个经训练的数据识别模型的情况下,模型评估模型131-5可以按照最高得分的顺序将任何一个或预定数量的数据识别模型确定为最终数据识别模型。
数据训练单元131中的数据获取单元131-1、预处理单元131-2、训练数据选择单元131-3、模型训练单元131-4和模型评估单元131-5中的至少一个可以例如但不限于以包括各种电路的至少一个硬件芯片的形式制造并安装在电子装置上。例如,数据获取单元131-1、预处理单元131-2、训练数据选择单元131-3、模型训练单元131-4和模型评估单元131-5中的至少一个可以仅以用于人工智能(AI)的硬件芯片的形式制造,或者作为现有通用处理器(例如,CPU或应用处理器)或用于特定功能的IP的一部分被制造以用于以各种类型安装在电子装置100上。
数据获取单元131-1、预处理单元131-2、训练数据选择单元131-3、模型训练单元131-4和模型评估单元131-5可以安装在单个电子装置上,或者每个单元可以安装在单独的电子装置上。例如,数据获取单元131-1、预处理单元131-2、训练数据选择单元131-3、模型训练单元131-4和模型评估单元131-5的一部分可以包括在电子装置100中,并且其余部分可以包括在服务器200中。
数据获取单元131-1、预处理单元131-2、训练数据选择单元131-3、模型训练单元131-4和模型评估单元131-5中的至少一个可以例如但不限制地用包括各种程序元件的软件模块来实现。在数据获取单元131-1、预处理单元131-2、训练数据选择单元131-3、模型训练单元131-4和模型评估单元131-5中的至少一个用软件模块(或包括指令的程序模块)实现的情况下,该软件模块可以存储在非暂态计算机可读记录介质上。可以由操作***(OS)或由预定应用提供至少一个软件模块。替代地或另外地,至少一个软件模块的一部分可以由操作***提供,并且其余部分可以由预定应用提供。
图5B是示出根据本公开的一些实施例的数据识别单元132的框图。参考图5B,根据一些实施例的图4的数据识别单元132可以包括数据获取单元(例如,包括处理电路和/或程序元件)132-1、预处理单元(例如,包括处理电路和/或程序单元)132-2、识别数据选择单元(例如,包括处理电路和/或程序单元)132-3、识别结果提供单元(例如,包括处理电路和/或程序单元)132-4和模型细化单元132-5。根据一些实施例的数据识别单元132可以必须包括数据获取单元132-1和识别结果提供单元132-4,并且选择性地包括预处理单元132-2、识别数据选择单元132-3和模型细化单元132-5。
数据获取单元132-1可以获得用于情景确定所需的数据,并且预处理单元132-2可以预处理所获得的数据,使得所获得的数据可以用于情景确定。预处理单元132-2可以将获得的数据处理成预定格式,使得下面将描述的识别结果提供单元132-4可以使用获得的数据进行情景确定。例如,在获得的数据是自然语言数据的情况下,预处理单元132-2可以对自然语言数据执行形态分析、自然语言分离和实体提取。在自然语言数据是音频数据的情况下,预处理单元132-2可以将音频数据转换为文本数据。预处理单元132-2可以对文本数据执行形态分析、自然语言分离和实体提取。
识别数据选择单元132-3可以从预处理数据中选择用于情景确定所需的数据。可以将所选数据提供给识别结果提供单元132-4。识别数据选择单元132-3可以根据用于情景确定的预定标准选择一些或全部预处理数据。识别数据选择单元132-3可以通过模型训练单元131-4的训练根据预定标准选择数据。预定标准可以包括,例如,数据属性、数据生成时间、数据创建者、数据可靠性、数据对象、数据生成区域和数据大小中的至少一个。
识别结果提供单元132-4可以通过将所选数据应用于数据识别模型来确定情景。识别结果提供单元132-4可以根据数据识别目的提供识别结果。识别结果提供单元132-4可以使用由识别数据选择单元132-3选择作为输入值的数据将所选择的数据应用于数据识别模型。另外,识别结果可以由数据识别模型来确定。
例如,识别结果提供单元132-4可以根据由数据识别模型确定的标准识别用户输入的自然语言。使用数据识别模型,识别结果提供单元132-4可以识别自然语言的内容并确定处理难度级别。
识别结果提供单元132-4可以将输入的自然语言或预处理的自然语言应用于数据识别模型作为输入值,并获得关于自然语言的响应作为识别结果。
模型细化单元132-5可以基于由识别结果提供单元132-4提供的识别结果的评估来细化数据识别模型。例如,模型细化单元132-5可以允许模型训练单元131-4通过将由识别结果提供单元132-4提供的识别结果提供给模型训练单元131-4来细化数据识别模型。
数据识别单元132中包括的数据获取单元132-1、预处理单元132-2、识别数据选择单元132-3、识别结果提供单元132-4和模型细化单元132-5中的至少一个单元可以例如但不限于以包括各种电路的至少一个硬件芯片的形式制造并安装在电子装置上。例如,数据获取单元132-1、预处理单元132-2、识别数据选择单元132-3、识别结果提供单元132-4和模型细化单元132-5中的至少一个可以仅以用于人工智能(AI)的硬件芯片的形式制造,或者作为现有通用处理器(例如,CPU或应用处理器)或用于特定功能的IP的一部分被制造以用来以各种类型安装在电子装置100上。
数据获取单元132-1、预处理单元132-2、识别数据选择单元132-3、识别结果提供单元132-4和模型细化单元132-5可以安装在单个电子装置上,或者每个单元可以安装在单独的电子装置上。例如,数据获取单元132-1、预处理单元132-2、识别数据选择单元132-3、识别结果提供单元132-4和模型细化单元132-5的一部分可以包括在电子装置100中并且其中一些可以包括在服务器200中。
数据获取单元132-1、预处理单元132-2、识别数据选择单元132-3、识别结果提供单元132-4和模型细化单元132-5中的至少一个可以用包括各种程序元件的软件模块实现。在数据获取单元132-1、预处理单元132-2、识别数据选择单元132-3、识别结果提供单元132-4和模型细化单元132-5中的至少一个用软件模块(或包括指令的程序模块)实现的情况下,软件模块可以存储在非暂态计算机可读记录介质上。可以由操作***(OS)或由预定应用程序提供至少一个软件模块。可替代地或另外地,至少一个软件模块中的一些可以由OS提供,并且其余中的一些可以由预定应用提供。
根据本公开的实施例,处理器130可以使用多种分析方法确定用户输入的自然语言的难度级别。例如,处理器130可以基于每种分析方法计算匹配得分。匹配得分可以是指示与每个聊天服务器的匹配程度的概率值。基于通过对计算的得分求和而获得的最终匹配得分,处理器130可以确定多个聊天服务器当中与自然语言对应的聊天服务器。
多个聊天服务器可以包括第一至第三聊天服务器,其根据用户输入的自然语言的特性和用户的特性提供关于自然语言的响应。可以基于用于提供响应的方法对第一至第三聊天服务器进行分类。另外,根据每个响应提供方法所需的资源,第一至第三聊天服务器可以包括不同的规格,例如CPU、存储器等。
例如,第一聊天服务器210可以基于预先存储的响应数据库提供与用户输入的自然语言对应的响应。第二聊天服务器220可以使用第一响应模型以通过确定用户输入的自然语言的上下文来提供响应。第三聊天服务器230可以使用第二响应模型以通过推断用户输入的自然语言中包括的问题来提供响应。
图6是示出根据本公开的实施例的用于确定自然语言的难度级别的示例方法的表。如图6中所示,多个聊天机器人(或聊天服务器)可以包括具有不同的响应提供方法和资源的多个聊天机器人(例如,聊天机器人A、聊天机器人B、聊天机器人C,…,和聊天机器人N)。
参考图6,处理器130可以基于每种分析方法计算(确定)每个聊天机器人(或聊天服务器)的匹配得分(或概率得分)。可以通过归一化来将每个匹配得分计算为具有0到1之间的值。处理器130可以基于通过对匹配得分求和而获得的最终匹配来确定要用于生成响应的聊天机器人。在图6中,聊天机器人C的正弦最终匹配得分值最大,处理器130可以选择聊天机器人C作为与自然语言对应的聊天机器人。根据各种实施例,处理器130可以基于最终匹配得分来确定聊天机器人,该最终匹配得分是多个匹配得分中的至少一个匹配得分的总和。
如果存在具有相同最终匹配得分的多个聊天机器人,则处理器130可以基于聊天机器人的性能来确定与自然语言对应的聊天机器人。例如,处理器130可以将具有相同最终匹配得分的多个聊天机器人当中最少资源消耗的聊天机器人确定为与自然语言对应的聊天机器人。
在下文中,将更详细地描述用于确定用户输入的自然语言的难度等级的各种方法。
图7A和7B是示出根据本公开的实施例的用于通过分析自然语言来计算匹配得分的示例方法的表。处理器130可以例如但不限于基于赋予自然语言的单词的权重值和词频/逆文档频率(TF/IDF)值来计算匹配得分。
图7A是表示给每个单词赋予权重值的例子的表。处理器130可以将低权重值赋予通用词并且将高权重值赋予专有名词,例如用户查询的产品。例如,处理器130可以给例如“再见”、“查询”、“问题”等单词赋予低权重值。处理器130可以给例如“电缆”、“液晶”、“屏幕”等单词赋予高权重值。
图7B是示出通过计算每个句子中的单词的词频/逆文档频率(TF/IDF)值而获得的值的示例的表。TF/IDF值可以是指示特定单词在特定文档中的重要程度的统计数字。例如,处理器130可以通过TF/IDF值提取文档的关键字。
例如,TF值可以是指示特定单词在句子中出现的频率的值。例如,DF值可以是指示特定单词本身在文档中出现的频率的值。随着TF值变得更高并且DF值变得更低,可以将特定单词确定为重要单词,可以通过将TF值乘以IDF值来获得TF/IDF值,IDF值是DF值的倒数。
图8是示出根据本公开的实施例的用于通过分析对话模式来计算匹配得分的示例方法的表。参考图8,根据对话难度级别(初学者级别、中级级别和高级级别)对聊天服务器进行分类。处理器130可以使用在初级级别、中级级别和高级级别聊天服务器中处理的对话模式数据来计算用户输入的自然语言的相似性。例如,处理器130可以通过余弦相似性得分计算来计算匹配得分。余弦相似性得分可以通过下式1计算:
【数学式1】
根据实施例,处理器130可以通过情绪分析来计算匹配得分。处理器130可以通过情感分析和情绪分析来计算关于每个聊天服务器的匹配得分。
情感分析可以是用于将自然语言分类为非常积极、积极、中立、消极和非常消极的五个级阶(step)并且计算关于每个聊天服务器的匹配得分的方法。情绪分析可以是用于将自然语言分类为平静、快乐、愤怒、悲伤、抑郁、惊讶、恐惧的七种情绪类型并且计算关于每个聊天服务器的匹配得分的方法。
处理器130可以合并情感分析和情绪分析的结果,并且执行结果的归一化以具有0和1之间的值。
根据本公开的实施例,处理器130可以通过用户分析来计算匹配得分。处理器130可以基于使用现有聊天服务器的用户的年龄、性别、地区、教育等来建立用户分析模型。处理器130可以基于建立的用户分析模型计算匹配得分。使用例如深度学习方法的人工智能技术的机器学习方法可以用于建立用户分析模型和确定用户分析参考。
根据本公开的实施例,处理器130可以通过元数据分析来计算匹配得分。处理器130可以使用注册信息、用户查询的产品的分类内容来建立元数据分析模型。处理器130可以基于所建立的元数据分析模型来计算匹配得分。
根据本公开的实施例,处理器130可以通过日志分析来计算匹配得分。处理器130可以基于用户的先前日志记录来确定每个聊天服务器的使用频率。处理器130可以预测使用哪个聊天服务器并计算匹配得分。
如上所述,处理器130可以基于各种标准计算关于每个聊天服务器的匹配得分。标准不限于这6(六)个。考虑到用户输入的自然语言的特性和用户信息的可用性,处理器130可以使用各种标准的一部分。
处理器130可以通过对计算出的匹配得分求和来计算最终匹配得分。处理器130可以将具有最高最终匹配得分的聊天服务器确定为生成与自然语言对应的响应的聊天服务器。
在用输入的自然语言确定聊天服务器之后,可以通过输入单元110从用户输入附加自然语言。处理器130可以通过相同的匹配得分计算确定聊天服务器以生成关于附加自然语言的响应。
响应于生成响应的聊天服务器与预定的聊天服务器相同,可以不需要改变聊天服务器(或聊天机器人),因此将不会有问题。然而,响应于与现有自然语言对应的聊天服务器与对应于附加自然语言的聊天服务器不同,由于聊天服务器的改变,与用户的对话上下文可能不被继续。因此,期望处理器130可以防止用户识别到聊天服务器被改变。
根据本公开的实施例,在聊天服务器被改变的情况下,处理器130可以将与现有聊天服务器执行的对话的历史信息和上下文信息与新聊天服务器同步。换句话说,处理器130可以将与现有聊天服务器执行的对话的历史信息和上下文信息连同附加输入的自然语言一起发送到新的聊天服务器。
图9是示出根据本公开另一实施例的聊天机器人***的示例配置的框图。参考图9,服务器200可以包括多个聊天机器人210、220、230和240以及匹配机器人201,其将多个聊天机器人中的一个与输入的自然语言进行匹配。电子装置100可以从用户接收自然语言并且用作输出响应的输入/输出设备。电子装置100可以执行预处理并通过语音识别将语音数据转换为文本数据。
服务器200可以包括存储对话历史信息和上下文信息的存储装置203,以实现多个聊天机器人210、220、230和240之间的信息的同步。
根据各种实施例,匹配机器人201可以基于经训练的数据识别模型确定多个聊天机器人210、220、230和240当中与用户输入的自然语言匹配的聊天机器人。匹配机器人201使用的数据识别模型可以是基于规则的模型或使用例如深度神经网络(DNN)、递归神经网络(RNN)和双向递归深度神经网络(BRDNN)的神经网络算法训练的人工智能模型。
匹配机器人201可以训练基础数据识别模型并生成或细化数据识别模型,该数据识别模型被设置为确定与用户输入的自然语言匹配的聊天机器人。匹配机器人201可以将用户输入的自然语言应用于数据识别模型,并提供与用户输入的自然语言匹配的聊天机器人的识别信息作为识别结果。为此,匹配机器人201可以包括图4、5A和5B中描述的数据训练单元131和数据识别单元132中的至少一个。
在这种情况下,匹配机器人201的数据训练单元131可以使用{自然语言,与自然语言匹配的聊天服务器的识别信息}实体作为训练目的数据来生成或细化用于确定聊天机器人的数据识别模型。匹配机器人201的数据识别单元131可以将用户输入的自然语言应用为用于确定聊天机器人的数据识别模型的输入值,并获得与用户输入的自然语言匹配的聊天机器人的识别信息作为识别结果。
图9示出了匹配机器人201包括在服务器200中,但是取决于实现方法,匹配机器人201可以包括在附加服务器或设备中,或者包括在本公开的电子装置100中。
图10是示出根据本公开的各种实施例的用于控制电子装置的示例方法的流程图。参考图10,电子装置100可以在步骤S1010接收用户输入的自然语言。在步骤S1020,电子装置100可以执行用户输入的自然语言的预处理。
在步骤S1030,电子装置100可以分析预处理的自然语言并确定用于生成关于输入的自然语言的响应的聊天服务器。例如,电子装置100可以分析预处理的自然语言的特性和用户的特性,并且确定多个聊天服务器当中与输入的自然语言对应的聊天服务器。
例如,多个聊天服务器可以包括第一聊天服务器、第二聊天服务器和第三聊天服务器,它们根据用户输入的自然语言的特性和用户的特性提供关于用户输入的自然语言的响应。然而,聊天服务器类型不限于3(三)个,而是在使用用于提供响应的不同资源的响应模型类型被划分的情况下,可以添加聊天服务器类型。
例如,第一聊天服务器可以是使用预先存储的响应数据库提供与用户输入的自然语言对应的响应的聊天服务器。这样的聊天服务器可以是多个聊天服务器当中具有最低级别规格的最简单响应模型。第二聊天服务器可以是通过使用第一响应模型确定用户输入的自然语言的上下文来提供响应的服务器,并且第三聊天服务器可以是通过使用第二响应模型推断包括在用户输入的自然语言中的问题来提供响应的聊天服务器。
电子装置100可以计算关于标准的匹配得分,以确定多个聊天服务器中的一个。例如,关于多个聊天服务器中的每一个,电子装置100可以计算关于自然语言的第一匹配得分、关于包括自然语言的对话模式的第二匹配得分、关于用户的情绪的第三匹配得分和关于用户的特性的第四匹配得分。电子装置100可以通过对关于多个聊天服务器的第一至第四匹配得分求和来计算最终匹配得分。
例如,电子装置100可以基于赋予包括在自然语言中的单词的加权值和词频/逆文档频率(TF/IDF)值来计算第一匹配得分。另外,电子装置100可以基于与预先存储的对话模式数据的相似性来计算第二匹配得分。另外,电子装置100可以基于对自然语言的情感分析和情绪分析来计算第三匹配得分并且基于用户的年龄、性别、地区和教育中的至少一个来计算第四匹配得分。
电子装置100可以将多个聊天服务器中的具有最高匹配得分的聊天服务器确定为与自然语言对应的聊天服务器。在步骤S1040,电子装置100可以将自然语言发送到所确定的聊天服务器。响应于从聊天服务器接收响应,电子装置100可以向用户输出响应。
根据各种实施例,电子装置100可以通过短距离通信或长距离通信联接到聊天服务器。将电子装置100和聊天服务器彼此连接可以指示电子装置100和聊天服务器彼此直接连接,或者经由附加元件(例如,比如接入点(AP)、集线器、传输设备、基站、路由器、网关等的第三元件中的至少一个)彼此联接。
可以限定用于在电子装置100和聊天服务器之间发送/接收数据的接口。例如,可以限定使得训练目的数据或识别目的数据作为因子值(或中间值或传递值)应用于聊天服务器的数据识别模型的应用程序接口(API)。API可以被限定为一组子例程或函数,其被调用以将任何一个协议(例如,在电子装置100中限定的协议)处理为另一协议(例如,在聊天服务器中限定的协议)。换句话说,可以通过API在任何一个协议中执行另一协议的操作。
图11是示出根据本公开的各种实施例的用于控制电子装置的示例方法的流程图。图11示出了根据附加自然语言改变聊天服务器的示例情况。因此,假设根据现有的输入自然语言确定多个聊天服务器中的一个。
在步骤S1110,电子装置100可以在接收到自然语言之后从用户接收附加自然语言。在步骤S1120,电子装置100可以以与图10类似的方式分析附加自然语言,并确定与附加自然语言对应的聊天服务器。
在步骤S1130,电子装置100可以确定生成关于现有自然语言的响应的聊天服务器是否与对应于附加自然语言的聊天服务器相同。响应于在步骤S1130-N聊天服务器未改变,电子装置100可以在步骤S1150将附加自然语言发送到聊天服务器并请求关于附加自然语言的响应。
另一方面,响应于在步骤S1130-Y聊天服务器被改变,电子装置100可以在步骤S1140将与现有聊天服务器执行的对话的历史信息和上下文信息发送到新聊天服务器。在步骤S1150,电子装置100可以将附加自然语言发送到新聊天服务器。新聊天服务器可以基于对话历史信息、上下文信息和附加自然语言生成响应,并将响应发送到电子装置100。通过共享对话历史信息和上下文信息,电子装置100可以基于用户与现有聊天服务器之间的对话数据继续对话。
图12A和12B是示出根据本公开另一实施例的聊天机器人***的示例构思的图。
电子装置100和图12A和图12B的多个聊天服务器210、220和230的描述已在图1中进行了描述。因此,此处不再重复对它们的描述。
参考图12A和12B,聊天机器人***可以包括通过有线或无线执行通信的匹配机器人1200(匹配服务器或匹配单元)。匹配机器人1200的目的或功能与图9中的匹配机器人201的目的或功能对应。
根据实施例,在图12A中,响应于电子装置100接收用户输入的自然语言,电子装置100可以将自然语言发送到匹配机器人1200。自然语言可以是文本数据、语音数据或者语音数据从其被预处理的文本数据。
匹配机器人1200可以基于所接收自然语言获得与自然语言对应的聊天服务器的识别信息。例如,如图9所示,匹配机器人1200可以使用数据识别模型获得与自然语言匹配的聊天服务器的识别信息。
匹配机器人1200可以将自然语言发送到与获得的聊天服务器的识别信息对应的聊天服务器。匹配机器人1200可以预处理自然语言并发送预处理的自然语言。基于所接收自然语言,聊天服务器可以获得关于自然语言的响应。聊天服务器可以通过匹配机器人1200将获得的响应发送到电子装置100,或者将获得的响应直接发送到电子装置100。
根据另一实施例,如图12B所示,响应于电子装置100将自然语言发送到匹配机器人1200,匹配机器人1200可以基于自然语言获得与自然语言匹配的聊天服务器的识别信息。例如,如图9所示,匹配机器人1200可以使用数据识别模型获得与自然语言匹配的聊天服务器的识别信息。匹配机器人1200可以将获得的聊天服务器的识别信息发送到电子装置100。电子装置100可以将自然语言发送到与所接收的聊天服务器的识别信息对应的聊天服务器。聊天服务器可以获得关于自然语言的响应并将响应发送到电子装置100。
图13是示出根据本公开的实施例的用于控制匹配机器人的示例方法的序列图。
在图13中,第一元件1301可以是电子装置100,并且第二元件1302可以是存储使用数据识别模型的匹配机器人的服务器。另外,第一元件1301可以是通用处理器,并且第二元件1302可以是人工智能处理器。替代地,第一元件1301可以是至少一个应用,并且第二元件1302可以是操作***(OS)的一个模块。换句话说,第二元件1302可以更集成、专用、延迟更少、性能更好或具有更多资源,从而比第一元件1301更快速且有效地执行所需的一堆计算以用于生成、细化和使用数据识别模型。
可以限定用于在第一元件1301和第二元件1302之间发送和接收数据的接口。例如,使得训练目的数据或识别目的数据作为因子值(或中间值或传递值)被应用于数据识别模型的API。
参考图13,在步骤S1310,第一元件1301可以接收用户输入的自然语言。
在步骤S1320,第一元件1301可以将自然语言发送到第二元件1302。例如,第一元件1301可以将自然语言应用为用于使用数据识别模型的API函数的因子值。通过API函数,可以将自然语言作为识别数据发送到第二元件1302以将自然数据应用于数据识别模型。考虑到通信格式,可以处理或补充自然语言。
在步骤S1330,第二元件1302可以将所接收的自然语言应用于数据识别模型,以将聊天服务器确定为经训练的数据识别模型。作为应用的结果,第二元件1302可以在步骤S1340获得与自然语言匹配的聊天服务器的识别信息。在步骤S1350,第二元件1302可以将获得的聊天服务器的识别信息发送到第一元件1301。考虑到通信格式,可以处理或补充聊天服务器的识别信息。
在步骤S1360,接收聊天服务器的识别信息的第一元件1301可以将用户输入的自然语言发送到与识别信息对应的聊天服务器。
响应于从聊天服务器接收关于用户输入的自然语言的响应,第一元件1301可以向用户提供所接收的响应。
上述方法可以以程序命令的形式实现,程序命令通过各种计算机、处理器等执行,并且可以记录在计算机可读介质上。计算机可读介质可以单独地或组合地包括程序命令、数据文件和数据结构。记录在计算机可读记录介质中的程序命令可以针对本公开特别地被设计和实现,或者是计算机软件领域的技术人员已知的。计算机可读介质的示例包括磁记录介质(例如硬盘、软盘和磁带),光记录介质(例如CD-ROM和DVD),磁光记录介质(例如光磁盘),和硬件设备(例如ROM、RAM和特别地配置为存储和执行程序命令闪存)。程序命令的示例包括由编译器创建的机器语言代码,以及可由计算机使用解释器执行的高级语言代码。硬件设备可以被配置为作为一个或多个软件模块操作以执行本公开的操作,并且相反也是适用的。
可以用计算机程序产品实现根据实施例的方法。
计算机程序产品的实施例可以包括S/W程序、S/W程序被存储在其中的计算机可读记录介质或在卖方和买方之间的交易的产品。
例如,计算机程序产品的示例可以包括电子装置100、服务器200、匹配机器人1200或者通过上述设备的制造商发布在电子***上或发布在应用商店上的S/W程序形式的产品(例如可下载的应用程序)。对于电子发布,至少一部分S/W程序可以存储在记录介质中,或者临时生成。在这种情况下,记录介质可以包括在制造商或应用商店的服务器或传输服务器中。
尽管已经示出和描述了各种示例实施例,但是本领域技术人员将理解,在不脱离本公开的原理、精神和范围的情况下,可以对这些示例实施例进行改变。因此,本公开的范围不限于所描述的示例实施例,而是由所附权利要求及其等同物限定。

Claims (15)

1.一种电子装置,包括:
输入单元,包括被配置为接收自然语言输入的输入电路;
通信器,包括被配置为执行与多个外部聊天服务器的通信的通信电路;和
处理器,被配置为:
分析自然语言的特性和用户的特性,并从多个聊天服务器当中识别与自然语言对应的聊天服务器,以及
控制所述通信器将自然语言发送到所识别的聊天服务器,以便接收关于自然语言的响应。
2.根据权利要求1所述的电子装置,其中,所述处理器还被配置为:
执行自然语言的预处理,
分析预处理的自然语言的特性和用户的特性,并从所述多个聊天服务器当中识别与预处理的自然语言对应的聊天服务器,以及
控制所述通信器将预处理的自然语言发送到所识别的聊天服务器。
3.根据权利要求2所述的电子装置,其中,所述处理器还被配置为:
关于所述多个聊天服务器中的每一个,确定以下中的至少一个:关于预处理的自然语言的第一匹配得分、关于包括预处理的自然语言的对话模式的第二匹配得分、关于用户的情绪的第三匹配得分和关于用户的特性的第四匹配得分,
关于所述多个聊天服务器中的每一个,使用所述第一匹配得分至第四匹配得分中的至少一个,确定关于所述多个聊天服务器中的每一个的最终匹配得分,以及
在所述多个聊天服务器当中识别具有最高最终匹配得分的聊天服务器,作为与预处理的自然语言对应的聊天服务器。
4.根据权利要求3所述的电子装置,其中,基于赋予预处理的自然语言的单词的加权值和词频/逆文档频率(TF/IDF)值来确定所述第一匹配得分,
其中,基于与预先存储的对话模式数据的相似性确定所述第二匹配得分,
其中,基于预处理的自然语言的情感分析和情绪分析来确定所述第三匹配得分,并且
其中,基于用户的年龄、性别、地区和教育中的至少一个来确定所述第四匹配得分。
5.根据权利要求1所述的电子装置,还包括:
存储器,被配置为存储与对应于自然语言的聊天服务器执行的对话的历史信息和关于在其中自然语言被输入的情景的上下文信息。
6.根据权利要求1所述的电子装置,其中,所述处理器还被配置为:
响应于在接收自然语言之后通过输入单元接收附加自然语言,通过分析附加自然语言的特性和用户的特性,从多个聊天服务器当中识别与附加自然语言对应的聊天服务器,和
响应于与自然语言对应的聊天服务器不同于与附加自然语言对应的聊天服务器,控制所述通信器将附加自然语言发送到与附加自然语言对应的聊天服务器。
7.根据权利要求6所述的电子装置,其中,所述处理器还被配置为控制所述通信器将与对应于自然语言的聊天服务器执行的对话的历史信息和上下文信息连同附加自然语言一起发送到与附加自然语言对应的聊天服务器。
8.根据权利要求1所述的电子装置,其中,所述多个聊天服务器包括以下中的两个或更多个:
第一聊天服务器、第二聊天服务器和第三聊天服务器,所述第一聊天服务器、第二聊天服务器和第三聊天服务器被配置为基于自然语言输入的特性和用户的特性提供关于自然语言输入的响应。
9.根据权利要求8所述的电子装置,其中,所述第一聊天服务器是被配置为使用预先存储的响应数据库提供与自然语言输入对应的响应的聊天服务器,
其中,所述第二聊天服务器包括被配置为通过使用第一响应模型识别自然语言输入的上下文来提供响应的聊天服务器,并且
其中,所述第三聊天服务器包括被配置为通过使用第二响应模型推断包括在自然语言输入中的问题来提供响应的聊天服务器。
10.一种用于控制电子装置的方法,该方法包括:
接收自然语言输入;
通过分析自然语言的特性和用户的特性,从多个聊天服务器中识别与自然语言对应的聊天服务器;和
将自然语言发送到所识别的聊天服务器,以便接收关于自然语言的响应。
11.根据权利要求10所述的方法,还包括:
执行自然语言的预处理,
其中,所述识别包括分析预处理的自然语言的特性和用户的特性,并从所述多个聊天服务器中识别与预处理的自然语言对应的聊天服务器,并且
其中,所述发送包括将预处理的自然语言发送到所识别的聊天服务器。
12.根据权利要求11所述的方法,其中,所述识别还包括:
关于所述多个聊天服务器中的每一个,确定关于预处理的自然语言的第一匹配得分、关于包括预处理的自然语言的对话模式的第二匹配得分、关于用户的情绪的第三匹配得分和关于用户的特性的第四匹配得分;
关于所述多个聊天服务器中的每一个,使用所述第一匹配得分至第四匹配得分中的至少一个,确定所述多个聊天服务器中的每一个的最终匹配得分;以及
在所述多个聊天服务器当中识别具有最高最终匹配得分的聊天服务器,作为与预处理的自然语言对应的聊天服务器。
13.根据权利要求12所述的方法,其中,基于赋予预处理的自然语言的单词的加权值和词频/逆文档频率(TF/IDF)值来确定所述第一匹配得分,
其中,基于与预先存储的对话模式数据的相似性确定所述第二匹配得分,
其中,基于预处理的自然语言的情感分析和情绪分析来确定所述第三匹配得分,并且
其中,基于用户的年龄、性别、地区和教育中的至少一个来确定所述第四匹配得分。
14.根据权利要求10所述的方法,还包括:
存储与对应于自然语言的聊天服务器执行的对话的历史信息和关于在其中自然语言被输入的情景的上下文信息。
15.根据权利要求10所述的方法,还包括:
在接收自然语言之后从用户接收附加自然语言;
通过分析附加自然语言的特性和用户的特性,从所述多个聊天服务器当中识别与附加自然语言对应的聊天服务器;和
响应于与自然语言对应的聊天服务器不同于与附加自然语言对应的聊天服务器,将附加自然语言发送到与附加自然语言对应的聊天服务器。
CN201880019376.3A 2017-03-23 2018-03-08 电子装置、其控制方法和非暂态计算机可读记录介质 Pending CN110462676A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR20170037129 2017-03-23
KR10-2017-0037129 2017-03-23
KR1020170155897A KR102656620B1 (ko) 2017-03-23 2017-11-21 전자 장치, 그의 제어 방법 및 비일시적 컴퓨터 판독가능 기록매체
KR10-2017-0155897 2017-11-21
PCT/KR2018/002766 WO2018174443A1 (en) 2017-03-23 2018-03-08 Electronic apparatus, controlling method of thereof and non-transitory computer readable recording medium

Publications (1)

Publication Number Publication Date
CN110462676A true CN110462676A (zh) 2019-11-15

Family

ID=63863387

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880019376.3A Pending CN110462676A (zh) 2017-03-23 2018-03-08 电子装置、其控制方法和非暂态计算机可读记录介质

Country Status (3)

Country Link
EP (1) EP3545487A4 (zh)
KR (1) KR102656620B1 (zh)
CN (1) CN110462676A (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200044175A (ko) 2018-10-05 2020-04-29 삼성전자주식회사 전자 장치 및 그의 비서 서비스 제공 방법
WO2020111835A1 (ko) * 2018-11-28 2020-06-04 김훈 대화형 교육 시스템에 포함되는 사용자 장치와 교육 서버
CN111309990B (zh) * 2018-12-12 2024-01-23 北京嘀嘀无限科技发展有限公司 一种语句应答方法及装置
KR102261411B1 (ko) * 2019-05-17 2021-06-07 주식회사 엔씨소프트 채팅 모델 학습 방법 및 장치
KR102259390B1 (ko) * 2019-09-09 2021-06-02 주식회사 솔트룩스 앙상블 질의 응답을 위한 시스템 및 방법
KR20210066651A (ko) 2019-11-28 2021-06-07 삼성전자주식회사 전자 장치 및 이의 제어 방법
KR102315830B1 (ko) * 2019-12-27 2021-10-22 한국과학기술원 반지도 학습 기반 단어 단위 감정 임베딩과 lstm 모델을 이용한 대화 내에서 발화의 감정 분류 방법
KR102449948B1 (ko) * 2020-02-12 2022-10-05 한국과학기술원 지능형 에이전트에서 이종의 멘탈 모델에 기반한 대화형 메시지 제공 방법 및 그 시스템
KR102314332B1 (ko) * 2021-04-15 2021-10-20 아우름케어매니지먼트 주식회사 머신러닝 자연어 처리를 활용한 의사-환자의 진료상담 지원 시스템 및 방법
KR102483538B1 (ko) * 2021-04-30 2023-01-03 아우름케어매니지먼트 주식회사 머신러닝을 활용한 복약순응 위험도 예측 시스템 및 방법
KR20230126109A (ko) * 2022-02-22 2023-08-29 삼성전자주식회사 디스플레이 장치 및 그 동작 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008119270A1 (fr) * 2007-03-30 2008-10-09 Tencent Technology (Shenzhen) Company Limited Système robot de discussion en ligne, procédé et dispositif de discussion automatique
CN105159996A (zh) * 2015-09-07 2015-12-16 百度在线网络技术(北京)有限公司 基于人工智能的深度问答服务提供方法和装置
US20160035353A1 (en) * 2014-07-31 2016-02-04 Google Inc. Conversational agents
US20170019356A1 (en) * 2015-07-16 2017-01-19 At&T Intellectual Property I, L.P. Service platform to support automated chat communications and methods for use therewith

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100571443B1 (ko) * 2003-10-20 2006-04-14 주식회사 다이퀘스트 Cca 구조를 이용한 다매체 정보제공 대화 에이전트시스템 및 방법
US9318108B2 (en) * 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US20090204407A1 (en) * 2008-02-08 2009-08-13 Shields T Russell System and method for processing a spoken request from a user
US9647968B2 (en) * 2015-03-25 2017-05-09 Pypestream Inc Systems and methods for invoking chatbots in a channel based communication system
KR101647949B1 (ko) * 2015-07-29 2016-08-12 주식회사 텍스트팩토리 문자 메시지를 이용한 개인 비서 서비스에서의 업무 분배 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008119270A1 (fr) * 2007-03-30 2008-10-09 Tencent Technology (Shenzhen) Company Limited Système robot de discussion en ligne, procédé et dispositif de discussion automatique
US20160035353A1 (en) * 2014-07-31 2016-02-04 Google Inc. Conversational agents
US20170019356A1 (en) * 2015-07-16 2017-01-19 At&T Intellectual Property I, L.P. Service platform to support automated chat communications and methods for use therewith
CN105159996A (zh) * 2015-09-07 2015-12-16 百度在线网络技术(北京)有限公司 基于人工智能的深度问答服务提供方法和装置

Also Published As

Publication number Publication date
KR102656620B1 (ko) 2024-04-12
EP3545487A4 (en) 2019-11-20
EP3545487A1 (en) 2019-10-02
KR20180108400A (ko) 2018-10-04

Similar Documents

Publication Publication Date Title
CN110462676A (zh) 电子装置、其控制方法和非暂态计算机可读记录介质
Lotfian et al. Curriculum learning for speech emotion recognition from crowdsourced labels
US11568855B2 (en) System and method for defining dialog intents and building zero-shot intent recognition models
US11302337B2 (en) Voiceprint recognition method and apparatus
US11210836B2 (en) Applying artificial intelligence to generate motion information
KR102414491B1 (ko) 컴퓨터 학습 및 이해를 위한 아키텍처 및 프로세스들
CN110490213B (zh) 图像识别方法、装置及存储介质
US11720759B2 (en) Electronic apparatus, controlling method of thereof and non-transitory computer readable recording medium
CN110263324A (zh) 文本处理方法、模型训练方法和装置
Buitelaar et al. Mixedemotions: An open-source toolbox for multimodal emotion analysis
WO2017112813A1 (en) Multi-lingual virtual personal assistant
US10521723B2 (en) Electronic apparatus, method of providing guide and non-transitory computer readable recording medium
US11881209B2 (en) Electronic device and control method
CN110431547A (zh) 电子设备和控制方法
US10770072B2 (en) Cognitive triggering of human interaction strategies to facilitate collaboration, productivity, and learning
CN109710760A (zh) 短文本的聚类方法、装置、介质及电子设备
Sridhar et al. Unsupervised personalization of an emotion recognition system: The unique properties of the externalization of valence in speech
Doering et al. Neural-network-based memory for a social robot: Learning a memory model of human behavior from data
KR20180116103A (ko) 온톨로지 대화 관계망을 이용한 연속 대화 방법 및 시스템
CN117453885A (zh) 提问信息处理方法、装置、设备、存储介质及产品
CN117271745A (zh) 一种信息处理方法、装置及计算设备、存储介质
Miao et al. [Retracted] English Speech Feature Recognition‐Based Fuzzy Algorithm and Artificial Intelligent
Hernández et al. User-centric Recommendation Model for AAC based on Multi-criteria Planning
Lima et al. Sequential Models for Automatic Personality Recognition from Multimodal Information in Social Interactions
US20240185880A1 (en) Systems and Methods for Emotion Detection, Prediction, Annotation, and Coaching

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination