CN104350541B - 能够将与用户的自然对话合并到其行为中的机器人,以及编程和使用所述机器人的方法 - Google Patents

能够将与用户的自然对话合并到其行为中的机器人,以及编程和使用所述机器人的方法 Download PDF

Info

Publication number
CN104350541B
CN104350541B CN201380029253.5A CN201380029253A CN104350541B CN 104350541 B CN104350541 B CN 104350541B CN 201380029253 A CN201380029253 A CN 201380029253A CN 104350541 B CN104350541 B CN 104350541B
Authority
CN
China
Prior art keywords
robot
module
output
dialogue
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201380029253.5A
Other languages
English (en)
Other versions
CN104350541A (zh
Inventor
D·乌桑
G·加特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Robotics Europe SAS
Original Assignee
Aldebaran Robotics SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aldebaran Robotics SA filed Critical Aldebaran Robotics SA
Publication of CN104350541A publication Critical patent/CN104350541A/zh
Application granted granted Critical
Publication of CN104350541B publication Critical patent/CN104350541B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/19Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Databases & Information Systems (AREA)
  • Manipulator (AREA)
  • Toys (AREA)
  • User Interface Of Digital Computer (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及一种类人机器人,所述机器人能够保存与至少一个用户的对话,所述对话使用两种模式的语音识别,一种模式是开放的,另一种模式是封闭的,封闭模式由表征对话序列的概念来定义。对话还可以受到既不是语音也不是文本的事件影响。本发明的机器人能够执行行为,并产生表达和情感。与现有技术的机器人相比,本发明提供了相当大地减少执行对话序列的编程时间和等待时间,且提供了接近于人类对话的流畅性与自然性的优点。

Description

能够将与用户的自然对话合并到其行为中的机器人,以及编 程和使用所述机器人的方法
技术领域
本发明属于机器人编程***的领域。具体而言,其可以用于为已经配备有执行行为的能力的类人机器人配备与使用者对话的先进能力。在机器人拥有人的外观和功能的一些属性:头部、躯干、双臂、可能的双手、双腿、双脚等时,可以将机器人说明为类人的。但在本发明的环境中,最重要的类人特性是用于在与人类的对话中口语表达的能力,所述能力必须尽可能地与机器人的性格与情感的姿态和/或象征表达协调。可以设想开发“机器人伙伴”型的应用,即,在为人提供可以认为是对存在人类私人秘书的情感上准等价的替代的存在的同时,能够显著地代表处于依赖状态中的一个或多个人,承担日常生活中的多个支持功能。为此,开发所述类人机器人以尽可能接近人行为的方式保持与人的对话的能力是必要的。尤其必要的是,机器人可以理解来自人类的问题或语句,并以对话方式说出回答,具有大量与人类的相对应的表达和表达方式,它们与通常人类具有的行为和情感的类型相配合。
背景技术
由于用于编程本专利申请的申请人市售的、并在涉及游戏者机器人的在No.WO2012/000927中公布的国际专利申请和涉及配备有自然对话接口的类人机器人的在No.WO2012/010451公布的国际专利申请中公开的NaoTM牌类人机器人的方法,已经完成了在这个方向上的最初步骤。
但由这些文献公开的机器人仅能够执行有限的和预定数量的对话要素,或者如果希望将所述对话要素增加到对应于人的正常行为的多样性的情况下,组合对于它来说至少是不能迅速达到的。为了能够为前述的人提供显著的支持服务,因此必须为类人机器人配备比现有技术的机器人更丰富的对话能力。为此,本发明在所述机器人中安装了对话代理、语音识别工具和用于分析与机器人交谈的人的行为的工具。
发明内容
为此,本发明公开了一种类人机器人,包括:i)至少一个传感器,所述至少一个传感器选自于包括以下传感器的组:声音类型的第一传感器和由所述机器人的至少一个用户产生的事件的至少一个第二类型的第二传感器,ii)在所述至少一个传感器的输出处的至少一个事件识别模块,iii)用于向所述至少一个用户产生事件的至少一个模块,用于与所述至少一个用户对话的模块,所述对话模块接收所述至少一个识别模块的输出作为输入,并生成到所述事件产生模块的输出,所述事件选自于包括语音、移动、表达和情感的组,其中,所述机器人进一步包括人工智能引擎,所述人工智能引擎被配置为控制事件产生模块的输出。
有利地,根据对话的上下文和定义所述机器人的当前配置与预测配置的变量来执行由所述人工智能引擎进行的对所述事件产生模块的控制。
有利地,所述至少一个事件识别模块接收源自属于至少两个不同类型的至少两个传感器的输入,在所述对话模块的输出处的所述至少一个事件产生模块能够考虑到源自所述至少两个传感器的所述输入产生事件作为输出。
有利地,所述至少一个识别模块能够按照动态分层树将输入构造为概念。
有利地,在所述至少一个识别模块中的输入在所述对话模块中应用于文本或语音输入并启动语法。
有利地,在所述至少一个识别模块中的输入启动/停用所述输入的识别。
有利地,所述至少一个识别模块包括第一和第二子模块,所述第一子模块在关联至少一个概念的词语的封闭列表上操作,且所述第二子模块在词语的开放列表上操作。
有利地,仅有一个来自第一子模块的输出提供给对话模块。
有利地,仅来自第二子模块的输出提供给对话模块。
有利地,来自第一子模块的输出与来自第二子模块的输出一起提供给对话模块。
有利地,仅有一个来自第一子模块的输出首先提供给对话模块,来自第一子模块的所述输出在对话模块中由来自第二子模块的输出确认。
有利地,没有一个来自第一和第二子模块的输出从对话模块产生输出,及所述机器人向所述至少一个用户提供至少一个输入。
有利地,对话模块进一步接收源自应用的动态要素作为输入。
有利地,将来自对话模块的至少一个输出提供给能够执行选自于功能组的功能的模块,所述功能用于产生所述机器人的至少一个表达,用于决定产生所述机器人的至少一个行为,和用于产生所述机器人的至少一个情感。
有利地,用于产生至少一个行为的所述功能考虑所述机器人的***约束。
有利地,用于产生至少一个情感的所述功能能够响应于输入事件产生在中性状态与预定义状态之间的一系列预定义的表达。
有利地,本发明的类人机器人进一步包括视觉识别模块,所述模块能够解译来自所述至少一个用户的、作为对话序列的开始或结束的至少一个手势。
有利地,所述对话模块包括用于词典分析的子模块和用于解译所述词典分析子模块的输出的子模块,其能够产生当前对话的词语所关联的概念。
有利地,所述对话模块能够处理来自所述至少一个用户的、与其物理和/或逻辑***的状态有关的问题和命令。
本发明还公开了一种在类人机器人与至少一个用户之间的对话的方法,包括:i)识别源自至少一个传感器的输入的至少一个步骤,所述至少一个传感器选自于包括以下传感器的组:声音类型的第一传感器和由所述至少一个用户产生的事件的至少一个第二类型的第二传感器,ii)向所述至少一个用户产生事件的步骤,及iii)与所述与至少一个用户对话的对话步骤,所述对话步骤接收来自所述至少一个识别步骤的输出作为输入,并生成到产生事件的所述步骤的输出,事件选自于包括以下的组:语音、移动、表达和情感,其中,所述方法进一步包括由人工智能引擎控制事件产生模块的输出的步骤。
有利地,根据对话的上下文和定义所述机器人的当前配置与预测配置的变量来执行由所述人工智能引擎进行的对所述事件产生模块的控制。
有利地,所述机器人保存与至少两个用户的对话,表征所述至少两个用户的参数存储在所述机器人的存储器中,以便在所述机器人识别出至少两个用户之一时使用。
本发明还公开了一种嵌入在类人机器人中的计算机程序,所述计算机程序包括程序代码指令,当在计算机上执行程序时,程序代码指令用于执行本发明的方法,所述程序适合于管理在所述类人机器人与至少一个用户之间的对话,所述计算机程序包括:i)用于识别在至少一个传感器的输出的事件的至少一个模块,所述至少一个传感器选自于包括以下的组:声音类型的第一传感器和由所述至少一个用户产生的事件的至少一个第二类型的第二传感器,ii)用于向所述至少一个用户产生事件的至少一个模块,及iii)用于与所述至少一个用户的对话的模块,所述对话模块接收来自所述至少一个识别模块的输出作为输入,并产生到用于产生事件的所述模块的输出,事件选自于包括以下的组:语音、移动、表达和情感,其中,所述程序的特征在于其进一步包括人工智能引擎,所述人工智能引擎被配置为控制事件产生模块的输出。
有利地,本发明还公开了一种计算机程序,包括程序代码指令,被配置为产生根据本发明的计算机程序,并将所述计算机程序传送到至少一个类人机器人,所述指令在ChatScript型接口上产生。
本发明允许使用在对话代理领域中已经使用的编程语言,所述语言的语法是大量程序员群体已知的,他们因而有资格开发实施本发明的新应用程序。作为本发明的部分而实施的,由于包含了语音识别的先进功能,以及考虑了源自机器人的其他传感器的信息,特别是视觉识别,现有技术对话代理发现他们的可能性相当大地增大了,使得它能够检测到对话的启动的情形及其对话者。根据本发明的方法的对话可以适于与不同机器人性格的不同类别对话的要素,机器人性格取决于其用户的偏好。机器人将能够与对话的所述要素相符地表达情感,并使其行为同样与所述要素同步,这将实现在用户与其机器人或多个机器人之间的流畅的交换脚本的创建。而且,机器人将能够提供有关于其***的多个要素的状态的信息(例如,剩余电池寿命),并以与用户的对话模式接收***命令,极大地改进了所述机器人的使用的人机工程学。
附图说明
依据以下实施例的几个示例的说明及其附图,会更好地理解本发明,其不同特征和优点会显现出来,在附图中:
图1示出了能够在本发明的几个实施例中实施本发明的类人机器人;
图2示出了根据本发明的几个实施例的处理的总体流程图;
图3示出了根据本发明的几个实施例的用于管理对话行为的模块和语音识别模块的处理单元;
图4示出了根据本发明的几个实施例的几级对话的树结构的示例;
图4a示出了根据本发明的几个实施例的概念树;
图5示出了在本发明的几个实施例中的语音识别模块的处理的简化流程图;
图6示出了在被配置为用于在本发明的几个实施例中实施本发明的几个软件模块之间的数据流;
图6a示出了在本发明的某些实施例中的情感引擎的操作;
图6b示出了在本发明的某些实施例中的决策引擎的操作;
图7示出了在用于在本发明的几个实施例中实施本发明的对话管理模块的输入和输出的不同功能;
图8示出了用于在本发明的几个实施例中实施本发明的分析和对话解译模块的数据模型;
图9示出了在被配置为用于在本发明的几个实施例中实施本发明的机器人上安装的软件模块的架构。
具体实施方式
图1示出了能够在本发明的几个实施例中实施本发明的类人机器人。
在本发明的实施例的附图中示出了这个类人机器人。这个机器人已经值得注意地在于10/15/2009公布的专利申请WO2009/124951中公开了。这个平台用作导致本发明的改进的基础。在说明的其余部分中,这个类人机器人可以按照这个类属名来指代或者按照它的商标NAOTM来指代,而不会影响参考的普遍性。
这个机器人包括用于控制关节的传感器和致动器的大约两打(24个)电子控制板。电子控制板包括市场上可以购买到的微控制器。例如这可以是来自Microchip公司的DSPICTM。它是耦合到DSP的16位MCU。这个MCU具有一毫秒的伺服环路循环。这个机器人还可以包括其他类型的致动器,尤其是LED(发光二极管),其颜色和强度可以反应机器人的情感。该机器人还可以包括其他类型的位置传感器,尤其是惯性单元、FSR(地板压力传感器)等。
头部110包括机器人的智能部件,尤其是执行使得机器人能够完成分配给它的任务的高级功能的板,在本发明的环境中,任务是用于执行由用户编写的对话。头部还有利地包括专用板,尤其是在语音(合成与识别)或者视觉处理中。
关于语音识别,在当前使用的音频信号处理架构中,所述音频信号由四个话筒捕获,并由专用模块中的软件处理,在关于图9的解说中说明了它们。分析在四个传感器的声音信号的到达的时间差可以确定声音起源的方向。语音由具有语法引擎(例如NuanceTM市售的类型)或具有自然语言解译器的语音识别软件来识别。
头部还包括专门用于处理服务输入/输出的一个或多个板,例如打开用于建立通过广域网(WAN)的远程通信的端口所需的编码。板处理器可以是在市场上可购买的x86处理器。低功耗处理器是优选的,例如Intel ATOMTM(32位,1600MHz)。板还包括忆阻RAM和闪存存储器。这个板还管理机器人与外界(行为服务器、其他机器人等)的通信,通常通过WiFi或WiMax传输层,可任选地通过具有可任选地封装在VPN中的标准协议的公共移动数据通信网络。处理器通常通过标准OS来控制,其允许使用用于编程高级功能的常规高级语言(C、C++、Python等)或者特定人工智能语言,例如URBI(专用机器人保持语言)。
机器人能够执行已经为之预先编程的行为,尤其是借助按照在已经引用的以No.WO2012/010451公布的国际专利申请中公开的发明产生的代码,所述代码已经由程序员在图形界面上创建了。根据本发明及剩余的说明,行为是动作(移动、语音)与可任选的事件的组合。这些行为还可以在由不是专业程序员的用户通过使用在专利申请WO2011/003628中公开的发明创建的脚本中设置。在第一种情况下可以包括在相对复杂的逻辑中结合在一起的行为,其中行为的顺序由在机器人环境中发生的事件来制约。在此情况下,必须具有最少的编程技术的用户可以使用ChorégrapheTM工具包,在引用的申请中说明其主要过程。在第二种情况下,脚本的顺序逻辑在原则上不是适应性的。
根据本发明,程序员能够产生复杂的脚本,包括包含不同姿态和移动的行为的组合、声音或视觉信号的发出,尤其是在机器人与人或另一个机器人之间的自然对话,所述对话与机器人的性格和情感以及对话的语义和时间环境相协调。
图2示出了根据本发明的几个实施例的处理的总体流程图。
根据本发明,安装在与机器人分离的工作站(例如PC)上的用于编写对话的模块210打算用于编程对话脚本。所述对话可以具有几个字符、一个或多个机器人和一个或多个说话者。所述模块有利地安装在ChorégrapheTM软件工具包中,其可以用于编程机器人的行为,对话在脚本内与相关于对话的要素由机器人执行的行为混合。其特征已经在关于图1的解说中提及了的语音识别模块220安装在机器人上。其打算用于解译在用于编写对话的模块210中创建的对话的要素,按照以上在关于图1的解说中所述的过程,所述对话要素经由有线或无线通信接口传送到机器人。例如在使用BNF(巴科斯范式)标准化语法的语言中编译发送到模块220的对话要素。例如,将一系列词语解译为逻辑“AND”,逻辑“OR”必须以不同的符号来表示,例如由“|”。在关于图5的解说中的说明中会进一步详述语音识别模块220的操作。
源自用于编写对话的模块210的要素和来自语音识别模块220的输出传送到对话引擎模块230。按照在关于图6和7的解说中解释的过程,所述引擎产生在模块210中创建的语音、情感、表达、行为和事件。行为是定义复合运动的一系列姿态(例如站起来、玩足球等)。表达是为由语音/动作对给出的对话所定义的特定类型的行为。动作可以是移动和/或例如由机器人的LED发出的符号的组合。用于创建由表达序列组成的脚本的方法已经由以No.WO2011/003628公布的国际申请公开了。情感是由终端表达定义的一系列表达和趋向于终端表达的一系列表达。作为示例,可以定义以下情感Ei,n:“快乐的/悲哀的”、“疲劳的”、“恐惧的”、“兴奋的”、“好奇的”,对于从1到n变化的i,每一个表达Ei,n是在参考状态与表达En,n之间的中间表达。如果机器人在状态Ej,p中,其中p与n不同,为引起情感n定义的事件的列表会将机器人从状态Ej,p移动到状态Ej,n
从ChatScript语言(http://chatscript.sourceforge.net/)得到对话描述语言。
在ChatScript语法中,如规则集一样编写脚本。例如:?:MEAT(you like meat)Yes
完整的规则通常包括:
-种类,在这个示例中的“?:”,其指示问题;
-标记,在这个示例中的“MEAT”,其可以被省略,但当存在时,其允许由其他对话调用;
-由在括号之间所示的模式表征的输入,在示例中的“(you like meat)”,短语关联的短语,其包括以此顺序的三个词,但还包括其他词语:“Albert,you like meat”、“Albert,you like red meat”等;
-输出,在这个示例中的“Yes”
根据本发明,为将对话要素与机器人行为混合而改写语言。改写的非限制性示例在剩余的说明中给出。
例如,由独特字符串(例如:“国际象棋”、“足球”、“太极”等)定义行为。情感同样如此,会理解,代码会指示它是情感(例如,可以使用大写词首字母:“Happy/Sad”、“Tired”、“Scared”、“Excited”、“Curious”等)。使用的语言允许简单地编写用于用户短语的几个措词(例如“hello”的不同措词)。输入可以是保有与机器人的对话(“用户”,其可以是人或者另一个机器人)、事件或二者的实体的短语(我说你好,向机器人伸出手)。对于一个用户短语,这个语言可以用于表达短语、情感、事件或行为形式的几个可能的回答。对话行为例如可以是如下类型:机器人用它的眼睛跟随用户,并分析用户的移动以创建更多自然回答(例如,不与用户同时说话)。
对话语言的每一个要素都重新转录到包括语音识别引擎的模块220中的其对等物中,所述引擎仅能够以一定确定性识别有限数量的词语。由于这个转换,确保了每一个识别的短语都有回答。在编写对话时,不是在执行时,从而以语音识别格式产生所有对话和所有对话输入。因此重要的是,对话描述语言在语音识别中具有对等物,这不是已知的使用ChatScript语言环境下的键盘对话的情况。
对话描述语言的语法特别地包括以下功能:
1)模式识别(或模式匹配)
一些模式在对话脚本中由符号指示:
-“或”接受可能的词的列表,例如:[hi hello];
-“与”搜索词语的准确列表,例如:“I'm happy”;
-可任选词,例如:hi{'my robot'};
-禁用词,例如:I'm!not happy;这个词不会确认输入;
-未知词,例如:my name is*;用户的姓名未知;
2)对话的上下文;使用触发短语从一个对话到另一个对话的移动,例如:
-Ut:(speaking of an automobile);这个短语会触发在汽车上的对话;
3)子对话;子对话在特定短语上启动,并可以连续继续下去,例如:
U:(how are you?)I'm fine and you?(你好吗?)我很好,你呢?
A:(I'm not well)oh why?(我不太好)哦,为什么?
B:(I'm sick)Oh too bad,do you want any medicine?(我病了)哦,糟糕,你需要药吗?
A:(I'm fine)great(我很好)太棒了。
这个子对话功能例如可以引起如下类型的对话:
人:你好吗?
机器人:我很好,你呢?
人:我不太好
机器人:哦,为什么?
人:我病了
4)事件:
以与由机器人捕获的语音相同的方式来考虑作为对话的输入的事件给出了现有技术中不存在的发明潜力的对话代理。具体而言,机器人的视觉识别使得它能够检测在其环境中的人并说嗨,如同在人对它说话时的情况:
-U:([e:面部检测的嗨])嗨
如果机器人看见人或者如果某人说“嗨”,那么机器人就回答“嗨”。
事件也可以作为对话的输出被触发,可任选地通过开始应用:
-U:(我饿了)$用户状态“饥饿”
$用户状态=“饥饿”会将饥饿指定给用户状态,并开始应用可以连接到的事件[用户状态,饥饿];
5)隐含或明确行为的选择
-U:(你认识我吗?)[$面部识别的=='运行:面部识别我不认识你,但我下一次会记住你]
6)建议:当机器人不理解或误解了用户所说的,于是它使用标准对话建议以便阐明,例如:
-建议:你多大了?
-U:(我[5678]岁,你年轻!
7)变量:对话可以存储用户信息,例如:
-U:(我[5678]岁$年龄=$1你年轻!
8)动态要素:变量和列表(mp3,应用、偏好等)可以作为输入并作为输出集成到对话中,例如:
-U:(你能做什么?)我能~应用
-U:(你的名字?)我的名字叫$姓名
-U:({开始读说}*_~应用)好,我将开始$1
$应用例如可以是(“三个火***”、“法国世界报”)
9)情感,悲哀的、快乐的、好奇的、恐惧的、疲劳的,即:
-U:(我不爱你!)这使得我悲哀SAD
10)删除规则;可以停用或启动输入以避免回答中的重复现象;相同的输入因而可以在对话或几个对话中重复,删除规则将实现解译所有输入,例如:
-U:删除(你好吗)我很好
-U:(你好吗,nao)你记得我的名字!我很好
-U:(你好吗)和我刚才一样
11)回答规则:可以由机器人产生几个可能的输出,由输入确定从其中的选择,输入是从用户或几个用户确定性(不管输入如何,总是相同的输出,或者列表中给定排序的输出)、随机的、顺序地(如果输入i触发输出j,输入i+1就触发输出j+1)或者有条件地接收的。对话模块可以使用所有机器人的存储器,因此可以按照机器人的存储器中的值给出回答;输出在用于向对话增加种类后可以删除;作为示例:
-U:(你好吗)[“我很好”“我已经告诉你了”]#默认的顺序
-U:(你好吗)^随机的[“我很好”“我非常好”“我好极了”]
-U:(你的名字是什么)^第一[“我的名字是$名字”“我没有名字”]#在此,如果$名字存在,“我的名字是$名字”仅是可显示的。
-U:(你好吗)^删除我很好#显示回答后删除规则
12)开始子对话,主题:
-U:(我想要谈谈汽车)主题:汽车
图3示出了根据本发明的几个实施例的用于管理对话行为的模块和语音识别模块的处理单元。
当以嵌入机器人中的运行时间执行对话时,对话引擎230在网络和对话列表310、330及语音识别220上工作。
对话网络310是结构化的对话集合,其指示如何将他们连接在一起:例如首先介绍,随后是另一个对话。网络为对话给出指导。列表330是非结构化的有效对话的列表,其在对话引擎和语音识别引擎中都存在。
可以启动或停用对话(这同时影响其全部输入340)。启动/停用可以自动由触发器(ut:)触发或者由用户手动触发。使得有效对话的数量在给定时刻最少可以用于优化在质量和处理时间方面的语音识别性能。可以在编辑器中设置对话的参数,以使得它们即使在如果开启新对话时也保持有效,默认解决方案是新对话的开启关闭以前的对话。也可以个别地启动/停用对话输入,或者通过连接到子对话,或者借助执行的删除,以避免进行中的对话要素的重复。对话引擎230包括模式识别模块320,其操作(点1)在关于图2的解说中示出了。它还包括动态概念树350。
概念是按照给出的对话中在语义上等同而定义的词语的列表,。示例性地,短语“我生活”在给定对话中认为是在语义上等价于短语“我活着”、“我居住”、“我生活”、“我,我活着”、“我,我居住”、“我,我生活”等。因此定义概念(生活)和概念(我):
概念:(生活)(活着、居住、生活、to_生活、to_居住)
概念:(我(主语))(我(宾语)、我(主语)、我已经)
因此会将短语编写在对话中的几个位置中:
U:(~我~to_生活)
动态概念树包括多个分层的有组织概念。在执行时还可以修改关联概念的短语的列表。
示例性地,概念“食品”包括概念“水果”和“肉”,概念“水果”包括“香蕉”和“桔子”;
概念:(食品)(~水果~肉)
概念:(水果)(香蕉桔子)
在对话过程中可以增加新的水果。因而创建了以下对话:
U:(你知道_的_~食品吗)是,我知道$1$2
这给出了执行:
用户:你知道香蕉吗?
机器人:是,我知道香蕉
U:(给我举一个水果的例子)~水果是水果
用户:给我举一个水果的例子
机器人:香蕉是水果
列表330的对话中的输入启动语音识别模块220的语法列表360中的语法。以与对话模块的输入列表340同步的方式启动/停用语音识别模块的输入列表370。修改对话模块230的动态概念树350中的概念导致语音识别模块的动态输入380的改写。
图4示出了根据本发明的几个实施例的几级对话的树结构的示例。
图中显示了几个对话。它们可以并行运行(优先级栈),一个对话能够代替另一个。
对话包括在嵌入到机器人中的对话引擎模块230中的三个逻辑级:
-级410包括默认的有效对话:普通对话4110(问候、介绍、情绪),和一个“***”对话4120,用于展现机器人的状态(电池、温度、配置等)或者给出基本命令(站起来、行走等);不仅是获得与机器人的视觉功能的状态有关的信息,还有能够控制其中的一些(设置在备用模式中、连接到电源出口等)的可能性可以用于降低非技术人员的用户在他们面对机器人是感受到的心理阻碍;
-级420包括用于按照来自用户的输入选择对话的例程,所述选择能够由触发器Ut:触发;例如可以编程多个选择4210、4220、4230、4240;
-级430例如包括应用4310、4320、4330,它们是对话或文件的序列,能够自动或由用户手动开始。
默认地,加载了包含普通信息和***命令的对话(例如“大声说”)。触发器短语随后可以触发其他对话的加载,例如用于:
-改变讨论的对象(汽车、一天的活动的谈论等);
-解释机器人能够做什么(“我不能讲故事”);这个部分包含动态要素:安装的mp3、安装的应用;可以通过语音识别开始的任何应用都应包含信息:其主题(游戏、信息等)和可任选的指定应用的对话(机器人可以说爱丽丝漫游仙境是关于小姑娘的故事等);
-开始应用的对话(例如交互式故事)
可以提供选择:猜著名人物,选择行为,选取产品,在交易中找到人等。可以由机器人(人必须理解机器人的意思)或者由人(机器人必须理解机器人的选择)做出选择。
这个选择借助如上所述的对话做出,但这个对话常常包括重复相同的短语,这使得对话难以编写:
U:(猜猜我在想谁)是人吗?
A:(是)是女人吗?
B:(是)等
B:(不是)等
A:(不是)是虚构的人物吗?
概念的想法用于引导可能性树。概念是与其他词语、短语或概念有关的词语。
概念:(人)[“他呼吸”“它是人”]
概念:(超人)[~人超级英雄~飞翔~斗篷]
概念:(哈利迪)[~歌手~人]
概念::(全部)[~超人~哈利迪]
在图4A中为以上示例示出了可能性树的层级特性。
词语表示树的叶子。概念表示树的节点。节点和叶子是模式匹配的要素(模式识别)。
借助单一输入:
U:([“他能够吗”“它是”~超人吗]是
我们可以匹配:
他能够飞吗
是人吗
是超人吗
我们还可以建议:
U:(帮助我)~超人
显示了树的一个叶子。
用户“帮助我
机器人:它呼吸
对于猜超人的用户,足以编写:
U:(是超人吗?)是,你猜对了!
U:(~超人)是
提议:不,不是他。
对于猜人物的机器人,足以编写:
U:(猜猜我在想谁)?~全部
图5示出了在本发明的一个实施例中的语音识别模块的处理的简化流程图。
-第一级510包括有限数量的可识别词;识别的词必须出现在封闭列表中;此类语音识别软件的示例是由NuanceTM(品牌名VoconTM)、AcapellaTM提供的,对于使用自然语言的软件,是DragonTM提供的。
-语音识别的第二级520具有开发类型,即,识别的词的多样性必须大得多;此类语音识别软件的示例是特别地由NuanceTM以品牌名NMSPTM提供的;这个软件可以用于管理预先未知的词语,其将由编号的通配符$x来标明。
此类语音识别构造包括两级,一个是封闭的510,另一个是开放的520(例如语音听写型的),其可以用于优化识别速度/质量对。
图5示出了如何合并两类语音识别:
-情况530:机器人处于与用户相同的语境中,它所说的由有限的识别来识别;于是语音听写不是必需的;
-情况540:机器人没有在与用户相同的语境中(用户谈论汽车,但机器人认为他们谈论食品),于是由语音听写识别的短语会更接近于对话;
-情况550:类型520的识别补充了类型510的识别;
-情况560:开放识别确认封闭识别的可能的选择;
-情况570:机器人不理解用户所说的;它提议确认对话的领域或者转换到另一个主题,以上情况530-560于是能够由机器人的这个重新开始而继续下去。
图6示出了在被配置为用于在本发明的几个实施例中实施本发明的几个软件模块之间的数据流。
该图显示了在输入事件610、对话620、输出事件630和嵌入在机器人中的人工智能引擎640之间的数据交换:
-对话620等待输入事件(例如来自用户的微笑6130或语音6120);
-对话引擎可以动态地加载新对话6240或动态数据6230(例如安装在其上的mp3文件或应用);
-按照表达言语6310、行为6320、情感6330或事件6340的格式使其回答公式化,换句话说,表达言语包括与如何解译文本(对于机器人的舞台指导)有关的信息的语音;
-来自对话的输出可以发送到不同人工智能引擎模块640:
■语音和表达由表达处理引擎6410Narrateur使用运动和语音合成处理,如特别地在以No.WO2011/003628公布的国际专利申请中说明的;
■情感由情感引擎6420处理,其开发了机器人的情感,以便随着时间的过去稳定它们;
■决策引擎6430决定是否开始行为,并可以将决定按照事件的形式以信号传送到对话引擎;机器人可以拒绝站起来,假如条件不满足这样做。
这个行为可以是使用识别或键盘输入的选择,如上在关于图4的解说中解释的;按照用户的动作,例如张嘴、走开、转头等,行为触发讲话和讲话的中断。
这个对话包括解译器6230和对话模型6240。
对话模型包括:
-对话网络和有效对话;
-全部对话输入和有效输入;
-全部对话输出;
-全部对话提议。
参考标记6310、6320、6330、6340表示来自对话引擎的事件形式的输出。
图6a示出了在本发明的某些实施例中的情感引擎的操作。
如上向关于图2的解说中解释的,机器人的情感是情感的多维空间中的点(例如,SAD、HAPPY、ANGRY、TIRED等)。
对话引擎向情感引擎发送脉冲,情感引擎改变机器人的当前情感,但不仅是对话引擎,例如其电池状态、面对的面部和时间,同样是情感变化的根源。这个情感随时间稳定到中性情感(0,0,0,0,0,0)。
图6b示出了在本发明的某些实施例中的决策引擎的操作。
决策引擎考虑对于执行行为的全部请求和可利用资源形式的机器人的所有约束。对于执行对话引擎的请求仅是决定的一个要素。机器人的所有变量/事件都参与到决定中(电池、温度、情感等)。
图7示出了在用于在本发明的几个实施例中实施本发明的对话管理模块的输入和输出的不同功能。
该图示出了对话710将语音识别730、键盘输入740或事件720的结果同等地作为输入。也可以考虑诸如mp3文件或应用的动态数据750。有利地,依据由内置在机器人中的相机接收的图像的处理,对话模块分析讲话者头部的位置,以便获知是否向机器人说话。类似地,可以评价嘴唇的位置,以便获知用户是否在讲话,及相应地它必须倾听还是它可以讲话(要素760)。
此外,可以以与其讲话相同的方式使用面部识别,以指示当前讲话者的名字。
来自对话引擎的“讲话”回答可以由机器人的语音或在屏幕7A0上(或二者)给出。
如已经提及的,对话模块能够触发行为的执行(要素7B0)。
图8示出了用于在本发明的几个实施例中实施本发明的分析和对话解译模块的数据模型。
分析器810从对话8120中的词典8110取回词语,其作为输入提供给分析器。输入对话具有数据模型8140。用于解析对话的内容的“Libparser.so”库8130执行这个功能。这使得对话模型和来自这些对话的所有输入能够内置到解译器820的存储器中。在执行时,解译器将有效对话的栈8210与用于每一个用户的所有有效输入保存在一起。在解译器的输入“解析”的对话具有形式8220和数据模型8240。解译器包括“Libparser.so”库8130,用于完成其解译功能。实际上,可以使得标准概念、变量和对话与用户相关。
因而,以下规则可以用于改变用户:
U:(e:面部识别)($名字=$面部识别)
U:(我的名字是_*)($名字=$1)
在此情况下,按照用户的历史,自动重置或指定与用户相关的变量(偏好、年龄、高度等)。行为830具有用于状态的变量的数据模型8310。
图9示出了在被配置为用于在本发明的几个实施例中实施本发明的机器人上安装的软件模块的架构。
在本发明的一个实施例中,有利地为诸如NAO的机器人配备高级软件,用于控制机器人的功能。称为NAOQI的此类软件架构已经在于10/15/2009公布的专利申请WO2009/124955中特别地公开了。其包括基本功能,用于管理在机器人与PC或远程站点之间的通信,并用于交换提供必要软件基础结构以便实施本发明的软件。
NAOQI是为机器人应用而优化的架构;其支持多种语言,尤其是C++、Python、Urbi、Java和matlab。
在本发明的环境中,以下NAOQI模块尤其有用:
-ALMemory模块910管理在不同NAOQI模块之间共用的存储器;
-ALMotion模块920管理机器人的移动;
-语音合成模块930产生机器人的讲话;
-封闭识别模块940执行图5中参考标记510的功能;
-开放识别模块950执行图6中参考标记520的功能;
-模块ALDialog 960执行图2中参考标记230的对话引擎模块的功能;
-Narrator[Narrateur]模块970执行图6中参考标记6410的功能;
-决策引擎模块980执行图6中参考标记6420的功能;
-情感引擎模块990执行图6中参考标记6430的功能;
有利地以C++编码这些模块。该图还显示了在模块之间的数据流。
如在关于图2的解说中提及的,在安装于标准计算机上的对话编辑模块9A0中产生对话。也可以在Chorégraphe工具包中产生它们。确保了在ALDialog模块960的对话与编辑模块9A0的对话之间的一致性。在对话引擎960的分析器810与解译器820(图9中显示了它们)之间的数据流在编辑时的计算机上和在执行时的机器人上同时进行。
分析器可以读取对话说明文件U:(....)。
解译器依据分析器的结果(无语法错误编写的对话)在存储器中构造对话模型。
上述的示例以例示本发明的实施例的方式给出。它们不以任何方式限制由所附权利要求书限定的本发明的范围。

Claims (27)

1.一种类人机器人(110),包括:
i)至少一个传感器,所述至少一个传感器选自于包括由所述机器人的至少一个用户产生的事件的音频传感器和视频传感器的组;
ii)在所述至少一个传感器的输出处的至少一个事件识别模块(610);以及
iii)用于向所述至少一个用户产生事件的至少一个模块(630),用于与所述至少一个用户对话的模块(620),所述对话模块接收所述至少一个识别模块的输出作为输入,并生成到所述事件产生模块的输出,所述事件选自于包括语音、移动、表达和情感的组,其中,所述机器人进一步包括人工智能引擎(640),所述人工智能引擎被配置为根据对话的上下文和将所述机器人的情感定义为中性状态和终端状态之间的一系列表达的变量来控制所述事件产生模块的输出,所述中性状态和所述终端状态之间的演变是由根据时间和所述至少一个传感器、所述事件识别模块、所述对话模块以及所述事件产生模块的输出中的一个或多个而产生的脉冲来触发的。
2.根据权利要求1所述的类人机器人,其中,所述一系列表达在定义的时间段中趋向于所述中性状态。
3.根据权利要求1所述的类人机器人,其中,所述变量进一步定义所述机器人可利用的资源中的一个或多个或者应用于所述机器人的***约束。
4.根据权利要求3所述的类人机器人,其中,定义所述机器人可利用的资源中的一个或多个或者应用于所述机器人的***约束的所述变量包括所述机器人的电池水平和温度。
5.根据权利要求1所述的类人机器人,其中,所述至少一个事件识别模块接收源自属于至少两个不同类型的至少两个传感器的输入,并且在所述对话模块的输出处的所述至少一个事件产生模块能够考虑源自所述至少两个传感器的所述输入而产生事件作为输出。
6.根据权利要求1所述的类人机器人,其中,所述至少一个识别模块能够按照动态分层树来将所述输入构造为概念。
7.根据权利要求1所述的类人机器人,其中,在所述对话模块中,所述至少一个识别模块中的输入应用于文本输入或语音输入并启动语法。
8.根据权利要求7所述的类人机器人,其中,所述至少一个识别模块中的输入启动/停用对所述输入的识别。
9.根据权利要求7所述的类人机器人,其中,所述至少一个识别模块包括第一子模块和第二子模块,所述第一子模块在关联至少一个概念的词语的封闭列表上操作,且所述第二子模块在词语的开放列表上操作。
10.根据权利要求9所述的类人机器人,其中,仅有一个来自所述第一子模块的输出被提供给所述对话模块。
11.根据权利要求9所述的类人机器人,其中,仅来自所述第二子模块的输出被提供给所述对话模块。
12.根据权利要求9所述的类人机器人,其中,来自所述第一子模块的输出与来自所述第二子模块的输出被一起提供给所述对话模块。
13.根据权利要求9所述的类人机器人,其中,仅来自所述第一子模块的输出被首先提供给所述对话模块,来自所述第一子模块的输出由来自所述第二子模块的输出在对话模块中被确认。
14.根据权利要求9所述的类人机器人,其中,来自所述第一子模块和第二子模块的输出都不从所述对话模块产生输出,且所述机器人向所述至少一个用户提供至少一个输出。
15.根据权利要求1所述的类人机器人,其中,所述对话模块进一步接收源自应用的动态要素作为输入。
16.根据权利要求1所述的类人机器人,其中,将来自所述对话模块的至少一个输出提供给能够执行选自于功能组的功能的模块,所述功能组包括:用于产生所述机器人的至少一个表达的功能;用于决定产生所述机器人的至少一个行为的功能;以及用于产生所述机器人的至少一个情感的功能。
17.根据权利要求16所述的类人机器人,其中,选自于所述功能组的所述功能是用于产生至少一个行为的所述功能,并且其中,用于产生至少一个行为的所述功能考虑所述机器人的***约束。
18.根据权利要求16所述的类人机器人,其中,选自于所述功能组的所述功能是用于产生至少一个情感的所述功能,并且其中,用于产生至少一个情感的所述功能能够响应于输入事件来产生在中性状态与预定义状态之间的一系列预定义的表达。
19.根据权利要求1所述的类人机器人,进一步包括视觉识别模块,其中,所述视觉识别模块能够解译来自所述至少一个用户的作为对话序列的开始或结束的至少一个手势。
20.根据权利要求6所述的类人机器人,其中,所述对话模块包括用于词典分析的子模块和用于解译所述词典分析子模块的输出的子模块,所述词典分析子模块能够产生当前对话的词语所关联的概念。
21.根据权利要求1所述的类人机器人,其中,所述对话模块能够处理来自所述至少一个用户的、与其物理***和/或逻辑***的状态有关的问题和命令。
22.一种在类人机器人与至少一个用户之间对话的方法,包括:
i)识别源自至少一个传感器的输入的至少一个步骤,所述至少一个传感器选自于包括由所述至少一个用户产生的事件的音频传感器和视频传感器的组;
ii)向所述至少一个用户产生事件的步骤;以及
iii)与所述至少一个用户的所述对话的对话步骤,所述对话步骤接收来自所述至少一个识别步骤的输出作为输入,并生成到所述产生事件的步骤的输出,所述事件选自于包括语音、移动、表达和情感的组,其中,所述方法进一步包括借助人工智能引擎根据对话的上下文和将所述机器人的情感定义为中性状态和终端状态之间的一系列表达的变量来控制所述事件产生模块的输出的步骤,所述中性状态和所述终端状态之间的演变是由根据时间和所述至少一个传感器、所述事件识别模块、所述对话模块以及所述事件产生模块的输出中的一个或多个而产生的脉冲来触发的。
23.根据权利要求22所述的对话的 方法,其中,定义所述机器人可利用的资源中的一个或多个或者应用于所述机器人的***约束的变量包括所述机器人的电池水平和温度。
24.根据权利要求22所述的对话的 方法,其中,所述机器人保存与至少两个用户的对话,表征所述至少两个用户的参数被存储在所述机器人的存储器中,以便当所述机器人识别出所述至少两个用户之一时使用。
25.一种在类人机器人与至少一个用户之间对话的装置,包括:
i)用于识别源自至少一个传感器的输入的至少一个单元,所述至少一个传感器选自于包括由所述至少一个用户产生的事件的音频传感器和视频传感器的组;
ii)用于向所述至少一个用户产生事件的单元;以及
iii)用于与所述至少一个用户进行对话的单元,用于进行对话的所述单元接收来自用于识别的所述至少一个单元的输出作为输入,并生成到用于产生事件的所述单元的输出,所述事件选自于包括语音、移动、表达和情感的组,其中,所述装置进一步包括用于借助人工智能引擎根据对话的上下文和将所述机器人的情感定义为中性状态和终端状态之间的一系列表达的变量来控制所述事件产生模块的输出的单元,所述中性状态和所述终端状态之间的演变是由根据时间和所述至少一个传感器、所述事件识别模块、所述对话模块以及所述事件产生模块的输出中的一个或多个而产生的脉冲来触发的。
26.根据权利要求25所述的装置,其中,定义所述机器人可利用的资源中的一个或多个或者应用于所述机器人的***约束的变量包括所述机器人的电池水平和温度。
27.根据权利要求25所述的装置,其中,所述机器人保存与至少两个用户的对话,表征所述至少两个用户的参数被存储在所述机器人的存储器中,以便当所述机器人识别出所述至少两个用户之一时使用。
CN201380029253.5A 2012-04-04 2013-04-03 能够将与用户的自然对话合并到其行为中的机器人,以及编程和使用所述机器人的方法 Expired - Fee Related CN104350541B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1253073 2012-04-04
FR1253073A FR2989209B1 (fr) 2012-04-04 2012-04-04 Robot apte a integrer des dialogues naturels avec un utilisateur dans ses comportements, procedes de programmation et d'utilisation dudit robot
PCT/EP2013/057043 WO2013150076A1 (fr) 2012-04-04 2013-04-03 Robot apte a integrer des dialogues naturels avec un utilisateur dans ses comportements, procedes de programmation et d'utilisation dudit robot

Publications (2)

Publication Number Publication Date
CN104350541A CN104350541A (zh) 2015-02-11
CN104350541B true CN104350541B (zh) 2018-10-16

Family

ID=46785533

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380029253.5A Expired - Fee Related CN104350541B (zh) 2012-04-04 2013-04-03 能够将与用户的自然对话合并到其行为中的机器人,以及编程和使用所述机器人的方法

Country Status (6)

Country Link
US (1) US10052769B2 (zh)
EP (1) EP2834811A1 (zh)
JP (1) JP6367179B2 (zh)
CN (1) CN104350541B (zh)
FR (1) FR2989209B1 (zh)
WO (1) WO2013150076A1 (zh)

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9634855B2 (en) 2010-05-13 2017-04-25 Alexander Poltorak Electronic personal interactive device that determines topics of interest using a conversational agent
FR2989209B1 (fr) * 2012-04-04 2015-01-23 Aldebaran Robotics Robot apte a integrer des dialogues naturels avec un utilisateur dans ses comportements, procedes de programmation et d'utilisation dudit robot
US10163455B2 (en) * 2013-12-03 2018-12-25 Lenovo (Singapore) Pte. Ltd. Detecting pause in audible input to device
US9358475B2 (en) 2013-12-12 2016-06-07 Beatbots, LLC Robot
US9421688B2 (en) * 2013-12-12 2016-08-23 Beatbots, LLC Robot
EP2933067B1 (en) 2014-04-17 2019-09-18 Softbank Robotics Europe Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method
EP2933070A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Methods and systems of handling a dialog with a robot
WO2016173326A1 (zh) * 2015-04-30 2016-11-03 北京贝虎机器人技术有限公司 基于主题的交互***及方法
JP6992957B2 (ja) 2015-10-21 2022-01-13 国立大学法人大阪大学 エージェント対話システム
CN105468145B (zh) * 2015-11-18 2019-05-28 北京航空航天大学 一种基于手势和语音识别的机器人人机交互方法和装置
JP1580536S (zh) * 2016-01-29 2017-07-03
JP2017151517A (ja) * 2016-02-22 2017-08-31 富士ゼロックス株式会社 ロボット制御システム
JP6726388B2 (ja) * 2016-03-16 2020-07-22 富士ゼロックス株式会社 ロボット制御システム
CN105690408A (zh) * 2016-04-27 2016-06-22 深圳前海勇艺达机器人有限公司 一种基于数据字典的情感识别机器人
WO2017187620A1 (ja) * 2016-04-28 2017-11-02 富士通株式会社 ロボット
DE102016115243A1 (de) * 2016-04-28 2017-11-02 Masoud Amri Programmieren in natürlicher Sprache
US11645444B2 (en) 2016-05-10 2023-05-09 Trustees Of Tufts College Systems and methods enabling online one-shot learning and generalization by intelligent systems of task-relevant features and transfer to a cohort of intelligent systems
CN107515570A (zh) * 2016-06-17 2017-12-26 青海汉拉信息科技股份有限公司 汉语文本自适应云计算集群遥控的全自动执行***
US10239205B2 (en) * 2016-06-29 2019-03-26 International Business Machines Corporation System, method, and recording medium for corpus curation for action manifestation for cognitive robots
CN106182007B (zh) * 2016-08-09 2018-07-27 北京光年无限科技有限公司 一种用于智能机器人的卡顿处理方法及装置
CN106346487B (zh) * 2016-08-25 2018-09-21 威仔软件科技(苏州)有限公司 交互式vr沙盘展示机器人
CN106445147B (zh) * 2016-09-28 2019-05-10 北京百度网讯科技有限公司 基于人工智能的对话***的行为管理方法及装置
CN108115678B (zh) * 2016-11-28 2020-10-23 深圳光启合众科技有限公司 机器人及其动作控制方法和装置
TWI612472B (zh) * 2016-12-01 2018-01-21 財團法人資訊工業策進會 指令轉換方法與系統以及非暫態電腦可讀取記錄媒體
CN110062683B (zh) * 2016-12-12 2023-04-28 微软技术许可有限责任公司 一种机器人姿态生成的方法、装置及计算机可读介质
WO2018163648A1 (ja) * 2017-03-10 2018-09-13 日本電信電話株式会社 対話システム、対話方法、対話装置、およびプログラム
WO2018163647A1 (ja) * 2017-03-10 2018-09-13 日本電信電話株式会社 対話方法、対話システム、対話装置、およびプログラム
US10850398B2 (en) * 2017-05-11 2020-12-01 Misty Robotics, Inc. Infinite robot personalities
US11625622B2 (en) 2017-06-15 2023-04-11 Microsoft Technology Licensing, Llc Memorable event detection, recording, and exploitation
US10569420B1 (en) * 2017-06-23 2020-02-25 X Development Llc Interfacing with autonomous devices
JP2019005842A (ja) * 2017-06-23 2019-01-17 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
KR102353486B1 (ko) * 2017-07-18 2022-01-20 엘지전자 주식회사 이동 단말기 및 그 제어 방법
CN111201566A (zh) * 2017-08-10 2020-05-26 费赛特实验室有限责任公司 用于处理数据和输出用户反馈的口语通信设备和计算体系架构以及相关方法
KR101854576B1 (ko) * 2017-11-10 2018-05-03 베스핀글로벌 주식회사 챗봇 기반 클라우드 관리 시스템 및 그의 운영 방법
US10572585B2 (en) 2017-11-30 2020-02-25 International Business Machines Coporation Context-based linguistic analytics in dialogues
US11222632B2 (en) 2017-12-29 2022-01-11 DMAI, Inc. System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs
US11468894B2 (en) 2017-12-29 2022-10-11 DMAI, Inc. System and method for personalizing dialogue based on user's appearances
EP3732677A4 (en) * 2017-12-29 2021-09-29 DMAI, Inc. SYSTEM AND PROCEDURE FOR AN AUTOMATIC COMPANION DRIVEN BY ARTIFICIAL INTELLIGENCE
US11024294B2 (en) 2017-12-29 2021-06-01 DMAI, Inc. System and method for dialogue management
US11504856B2 (en) * 2017-12-29 2022-11-22 DMAI, Inc. System and method for selective animatronic peripheral response for human machine dialogue
US10691113B1 (en) * 2018-02-06 2020-06-23 Anthony Bergman Robotic process control system
US11331807B2 (en) * 2018-02-15 2022-05-17 DMAI, Inc. System and method for dynamic program configuration
CN110309254A (zh) * 2018-03-01 2019-10-08 富泰华工业(深圳)有限公司 智能机器人与人机交互方法
CN108406811A (zh) * 2018-03-19 2018-08-17 重庆鲁班机器人技术研究院有限公司 机器人编程装置、***及方法
FR3080926B1 (fr) * 2018-05-04 2020-04-24 Spoon Procede de commande d'une pluralite d'effecteurs d'un robot
FR3081578B1 (fr) * 2018-05-25 2022-08-12 Hoomano Dispositif et methode de mesure d’une caracteristique d’une interaction entre un utilisateur et un dispositif d’interaction
EP3576084B1 (de) * 2018-05-29 2020-09-30 Christoph Neumann Effiziente dialoggestaltung
CN109063060A (zh) * 2018-07-20 2018-12-21 吴怡 一种语义网法律咨询服务机器人
US11279036B2 (en) 2018-10-01 2022-03-22 Toyota Research Institute, Inc. Methods and systems for implementing customized motions based on individual profiles for identified users
US11023787B2 (en) * 2018-10-19 2021-06-01 Oracle International Corporation Method, system and program for generating decision trees for chatbots dialog flow capabilities
USD916161S1 (en) 2018-11-05 2021-04-13 DMAI, Inc. Robot
US11816551B2 (en) 2018-11-05 2023-11-14 International Business Machines Corporation Outcome-based skill qualification in cognitive interfaces for text-based and media-based interaction
US20220055224A1 (en) * 2018-11-05 2022-02-24 DMAI, Inc. Configurable and Interactive Robotic Systems
USD888165S1 (en) 2018-11-05 2020-06-23 DMAI, Inc. Robot
USD892886S1 (en) * 2018-11-08 2020-08-11 Genesis Robotics And Motion Technologies, LP Robot
USD893573S1 (en) * 2018-12-03 2020-08-18 Cloudminds (Beijing) Technologies Co., Ltd. Robot
US20200298401A1 (en) * 2019-01-03 2020-09-24 Lucomm technologies, Inc Semantic Robotic System
KR20210020312A (ko) * 2019-08-14 2021-02-24 엘지전자 주식회사 로봇 및 그의 제어 방법
US11449682B2 (en) * 2019-08-29 2022-09-20 Oracle International Corporation Adjusting chatbot conversation to user personality and mood
CN110570866A (zh) * 2019-09-11 2019-12-13 百度在线网络技术(北京)有限公司 语音技能创建方法、装置、电子设备和介质
US11775772B2 (en) 2019-12-05 2023-10-03 Oracle International Corporation Chatbot providing a defeating reply
US11252113B1 (en) * 2021-06-15 2022-02-15 Drift.com, Inc. Proactive and reactive directing of conversational bot-human interactions
CN116847957A (zh) 2021-06-28 2023-10-03 三星电子株式会社 机器人和用于操作机器人的方法
KR20230111061A (ko) * 2022-01-17 2023-07-25 삼성전자주식회사 로봇 및 이의 제어 방법

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1136194A4 (en) * 1998-11-30 2001-09-26 Sony Corp ROBOT, CONTROL PROCEDURE OF THE ROBOT AND MEDIUM FOR PROGRAM RECORDING
US6513006B2 (en) * 1999-08-26 2003-01-28 Matsushita Electronic Industrial Co., Ltd. Automatic control of household activity using speech recognition and natural language
US6731307B1 (en) * 2000-10-30 2004-05-04 Koninklije Philips Electronics N.V. User interface/entertainment device that simulates personal interaction and responds to user's mental state and/or personality
KR100940630B1 (ko) * 2001-05-02 2010-02-05 소니 주식회사 로봇 장치와, 문자 인식 장치 및 문자 인식 방법과, 제어프로그램 및 기록 매체
JP4150198B2 (ja) * 2002-03-15 2008-09-17 ソニー株式会社 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置
JP2003305677A (ja) * 2002-04-11 2003-10-28 Sony Corp ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
US7136818B1 (en) * 2002-05-16 2006-11-14 At&T Corp. System and method of providing conversational visual prosody for talking heads
JP3945356B2 (ja) * 2002-09-17 2007-07-18 株式会社デンソー 音声対話装置及びプログラム
US7044840B2 (en) * 2002-08-07 2006-05-16 Toyoda Koki Kabushiki Kaisha Grinding method and grinding machine
JP2004090109A (ja) 2002-08-29 2004-03-25 Sony Corp ロボット装置およびロボット装置の対話方法
JP2004240150A (ja) * 2003-02-05 2004-08-26 Nippon Telegr & Teleph Corp <Ntt> 音声対話装置、音声対話装置選択方法、プログラム及び記録媒体
US7113848B2 (en) * 2003-06-09 2006-09-26 Hanson David F Human emulation robot system
US7075331B2 (en) * 2004-06-03 2006-07-11 Tekelec Methods and systems for providing hardware assisted programming of a programmable logic device in an embedded system
JP2005342862A (ja) * 2004-06-04 2005-12-15 Nec Corp ロボット
JP4629560B2 (ja) * 2004-12-01 2011-02-09 本田技研工業株式会社 対話型情報システム
US8473449B2 (en) * 2005-01-06 2013-06-25 Neuric Technologies, Llc Process of dialogue and discussion
US7047108B1 (en) * 2005-03-01 2006-05-16 Sony Corporation Enhancements to mechanical robot
JP4353212B2 (ja) 2006-07-20 2009-10-28 株式会社デンソー 単語列認識装置
US20080243750A1 (en) * 2007-03-31 2008-10-02 Mitchell Kwok Human Artificial Intelligence Software Application for Machine & Computer Based Program Function
US20090164397A1 (en) * 2007-12-20 2009-06-25 Mitchell Kwok Human Level Artificial Intelligence Machine
JP2009122598A (ja) * 2007-11-19 2009-06-04 Pioneer Electronic Corp 電子機器、電子機器の制御方法、音声認識装置、音声認識方法及び音声認識プログラム
FR2930108B1 (fr) 2008-04-09 2010-07-30 Aldebaran Robotics Systeme et procede de communication distribue comprenant au moins un serveur, au moins un terminal distant, et au moins un terminal mobile capable de communiquer avec le terminal distant relie en reseau audit serveur
FR2929873B1 (fr) 2008-04-09 2010-09-03 Aldebaran Robotics Architecture de controle-commande d'un robot mobile utilisant des membres articules
JP2010094799A (ja) * 2008-10-17 2010-04-30 Littleisland Inc 人型ロボット
KR20100081587A (ko) * 2009-01-06 2010-07-15 삼성전자주식회사 로봇의 소리 인식 장치 및 그 제어 방법
FR2947923B1 (fr) * 2009-07-10 2016-02-05 Aldebaran Robotics Systeme et procede pour generer des comportements contextuels d'un robot mobile
US8369992B2 (en) * 2009-09-22 2013-02-05 GM Global Technology Operations LLC Embedded diagnostic, prognostic, and health management system and method for a humanoid robot
FR2962048A1 (fr) 2010-07-02 2012-01-06 Aldebaran Robotics S A Robot humanoide joueur, methode et systeme d'utilisation dudit robot
US8483873B2 (en) * 2010-07-20 2013-07-09 Innvo Labs Limited Autonomous robotic life form
FR2963132A1 (fr) 2010-07-23 2012-01-27 Aldebaran Robotics Robot humanoide dote d'une interface de dialogue naturel, methode d'utilisation et de programmation de ladite interface
KR20120047577A (ko) * 2010-11-04 2012-05-14 주식회사 케이티 대화형 행동모델을 이용한 로봇 인터랙션 서비스 제공 장치 및 방법
FR2989209B1 (fr) * 2012-04-04 2015-01-23 Aldebaran Robotics Robot apte a integrer des dialogues naturels avec un utilisateur dans ses comportements, procedes de programmation et d'utilisation dudit robot

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A Robot That Can Engage in Both Task-Oriented;Mikio Nakano etc;《IEEE-RAS INTERNATIONAL CONFERENCE》;20061231;第404-411页 *
The intelligent ASIMO: System overview and integration;Yoshiaki Sakagami etc;《Proceedings of the 2002 IEEHRSJ Intl. Conference on Intelligent Robots and Systems》;20021031;第2478-2483页 *

Also Published As

Publication number Publication date
EP2834811A1 (fr) 2015-02-11
JP6367179B2 (ja) 2018-08-01
WO2013150076A1 (fr) 2013-10-10
US20150100157A1 (en) 2015-04-09
CN104350541A (zh) 2015-02-11
FR2989209A1 (fr) 2013-10-11
FR2989209B1 (fr) 2015-01-23
US10052769B2 (en) 2018-08-21
JP2015524934A (ja) 2015-08-27

Similar Documents

Publication Publication Date Title
CN104350541B (zh) 能够将与用户的自然对话合并到其行为中的机器人,以及编程和使用所述机器人的方法
CN103119644B (zh) 装备自然对话接口的类人机器人、用于控制机器人的方法和对应程序
WO2018093806A1 (en) Embodied dialog and embodied speech authoring tools for use with an expressive social robot
CN112162628A (zh) 基于虚拟角色的多模态交互方法、装置及***、存储介质、终端
RU2653283C2 (ru) Способ диалога между машиной, такой как гуманоидный робот, и собеседником-человеком, компьютерный программный продукт и гуманоидный робот для осуществления такого способа
CN106469212A (zh) 基于人工智能的人机交互方法和装置
US11548147B2 (en) Method and device for robot interactions
CN106573375A (zh) 用于管理机器人的对话的方法和***
KR102056330B1 (ko) 통역장치 및 그 방법
CN108632653A (zh) 语音管控方法、智能电视及计算机可读存储介质
KR20150081981A (ko) 회의 내용 구조화 장치 및 방법
Horvitz et al. Harnessing models of users’ goals to mediate clarification dialog in spoken language systems
JP2015525137A (ja) リアルタイムで行われる移動ロボットの脈絡ある挙動を生成する方法およびシステム
WO2020167860A1 (en) Techniques for generating digital personas
KR20190001435A (ko) 음성 입력에 대응하는 동작을 수행하는 전자 장치
KR102380717B1 (ko) 사용자 발화를 처리하는 전자 장치 및 이 전자 장치의 제어 방법
Huggins et al. The interaction flow editor: A new human-robot interaction rapid prototyping interface
Chaurasiya Cognitive hexagon-controlled intelligent speech interaction system
Turunen Jaspis-a spoken dialogue architecture and its applications
US12011828B2 (en) Method for controlling a plurality of robot effectors
Blumendorf Multimodal interaction in smart environments: a model-based runtime system for ubiquitous user interfaces
Minker et al. Next-generation human-computer interfaces-towards intelligent, adaptive and proactive spoken language dialogue systmes
Applewhite et al. Novel bidirectional multimodal system for affective human-robot engagement
US20210201139A1 (en) Device and method for measuring a characteristic of an interaction between a user and an interaction device
CN101268507A (zh) 用于通信的方法以及通信设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20181016

Termination date: 20210403