CN108133259A - 人工虚拟生命与外界交互的***及方法 - Google Patents

人工虚拟生命与外界交互的***及方法 Download PDF

Info

Publication number
CN108133259A
CN108133259A CN201711337403.5A CN201711337403A CN108133259A CN 108133259 A CN108133259 A CN 108133259A CN 201711337403 A CN201711337403 A CN 201711337403A CN 108133259 A CN108133259 A CN 108133259A
Authority
CN
China
Prior art keywords
virtual life
artificial virtual
decision
action
artificial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201711337403.5A
Other languages
English (en)
Inventor
宋亚楠
程谦
邱楠
王昊奋
邹创华
刘海峡
周磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Green Bristlegrass Intelligence Science And Technology Ltd
Original Assignee
Shenzhen Green Bristlegrass Intelligence Science And Technology Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Green Bristlegrass Intelligence Science And Technology Ltd filed Critical Shenzhen Green Bristlegrass Intelligence Science And Technology Ltd
Priority to CN201711337403.5A priority Critical patent/CN108133259A/zh
Publication of CN108133259A publication Critical patent/CN108133259A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供一种人工虚拟生命与外界交互的***及方法,其中,***包括,认知模块,用于存储人工虚拟生命的认知信息;感知模块,用于感知当前场景下的外界信息;决策模块,用于根据外界信息和认知信息,确定针对当前场景的交互决策,动作模块,用于确定与交互决策匹配的动作序列,并根据动作序列进行动作,实现人工虚拟生命与外界环境的交互。本发明提供的人工虚拟生命与外界交互的***及方法,旨在使得人工虚拟生命,能够像有生命的生命体一样,感知外界的信息并对当前场景给出相应的交互动作,即自由地与外界进行感知并进行交互。

Description

人工虚拟生命与外界交互的***及方法
技术领域
本发明涉及计算机技术领域,尤其涉及一种人工虚拟生命与外界交互的***及方法。
背景技术
目前的机器人产品从形态上可以分为以下几类:
1.没有具体形态,如微软小冰寄居于微信,主要通过文字与人交互。
2.无肢体不可以移动,如亚马逊echo音箱,通过语音与人交互,满足用户听音乐、新闻、购物等需求。
3.有肢体不可移动,如工业机械臂,通过接收控制命令进行相应的流水线操作。
4.可移动,如扫地机器人,通过实体按键、APP、语音等与用户交互,通过摄像头与外界环境交互,完成特定操作。
综上,目前的机器人主要交互的对象是人,且交互的手段单一,主要以文字、语音、实体按键形式通过有线或无线控制端进行交互,此外,虽然也有部分机器人通过摄像头获取外界信息,但也仅仅是将摄像头作为机器人完成自身任务的辅助性手段,也就是说,现有的机器人产品,交互手段单一,机器人只能单一地被动地执行任务,不能像人类及其他生命体一样,自由地与外界进行感知并进行交互。
发明内容
本发明要解决的技术问题是提供一种人工虚拟生命与外界交互的***及方法,以克服现有技术中的机器人只能单一地被动地执行任务,不能像人类及其他生命体一样,自由地与外界进行感知并进行交互。
为解决上述技术问题,本发明提供的技术方案为:
一方面,本发明提供一种人工虚拟生命与外界交互的***,包括,
认知模块,用于存储人工虚拟生命的认知信息;
感知模块,用于感知当前场景下的外界信息;
决策模块,用于根据外界信息和认知信息,确定针对当前场景的交互决策,
动作模块,用于确定与交互决策匹配的动作序列,并根据动作序列进行动作,实现人工虚拟生命与外界环境的交互。
进一步地,感知模块包括,视觉单元,听觉单元,触觉单元,味觉单元,嗅觉单元,空间感知单元;其中,
视觉单元,听觉单元,触觉单元,味觉单元,以及嗅觉单元的硬件基础分别为摄像头,麦克风,触觉传感器,味觉传感器,嗅觉传感器;
空间感知单元的硬件基础为GPS,陀螺仪。
进一步地,动作序列包括,面部表情,肢体动作,行为动作,设定自身状态,向外界发送控制其他物体的指令,做出语音响应。
进一步地,人工虚拟生命包括,现实存在的机器形态的人工虚拟生命,虚拟形态存在的人工虚拟生命。
进一步地,决策模块具体用于,
根据外界信息和认知信息,并根据预先构建的决策规则或决策模型确定针对当前场景的交互决策;其中,
决策规则为,根据人工虚拟生命的功能需求建立的,从具体场景到交互决策的规则信息库;
决策模型为,以对具体场景的感知信息和与感知信息对应的决策信息作为输入,训练获得的人工智能模型。
进一步地,动作模块具体用于,根据预先构建的映射关系确定与交互决策匹配的动作序列,并根据动作序列进行动作,实现人工虚拟生命与外界环境的交互。
进一步地,映射关系的构建方式为,
以交互决策和与交互决策对应的动作序列作为人工智能模型的输入,通过不断地训练和增强学习,构建交互决策与动作序列间的映射关系;
和/或,参照多学科专家***,手工建立由交互决策到动作序列的映射关系;
和/或,使用半监督的方式,以少量专家建立的规则作为基础,矫正人工智能模型建立的映射,以构建交互决策与动作序列间的映射关系。
另一方面,本发明还提供了一种人工虚拟生命与外界交互的方法,包括,
认知步骤,认知模块存储人工虚拟生命的认知信息;
感知步骤,感知模块感知当前场景下的外界信息;
决策步骤,决策模块根据外界信息和认知信息,确定针对当前场景的交互决策,
动作步骤,动作模块确定与交互决策匹配的动作序列,并根据动作序列进行动作,实现人工虚拟生命与外界环境的交互。
进一步地,决策步骤具体包括,根据外界信息和认知信息,并根据预先构建的决策规则或决策模型确定针对当前场景的交互决策;
动作步骤具体包括,根据预先构建的映射关系确定与交互决策匹配的动作序列,并根据动作序列进行动作,实现人工虚拟生命与外界环境的交互。
本发明提供的人工虚拟生命与外界交互的***及方法,人工虚拟生命像人类或其他生命体一样,具有认知模块,感知模块,决策模块和动作模块,其中,认知模块,用于存储人工虚拟生命的认知信息;感知模块,用于感知当前场景下的外界信息;决策模块,用于根据外界信息和认知信息,确定针对当前场景的交互决策,动作模块,用于确定与交互决策匹配的动作序列,并根据动作序列进行动作,实现人工虚拟生命与外界环境的交互。也就是说,本发明中的人工虚拟生命,能够像有生命的生命体一样,感知外界的信息并对当前场景给出相应的交互动作,即自由地与外界进行感知并进行交互。
附图说明
图1是本发明实施例提供的人工虚拟生命与外界交互的***的框图;
图2是本发明实施例提供的人工虚拟生命与外界交互的方法的流程图。
具体实施方式
下面通过具体的实施例进一步说明本发明,但是,应当理解为,这些实施例仅仅是用于更详细具体地说明之用,而不应理解为用于以任何形式限制本发明。
实施例一
结合图1,本实施例提供的人工虚拟生命与外界交互的***,包括,
认知模块1,用于存储人工虚拟生命的认知信息;
感知模块2,用于感知当前场景下的外界信息;
决策模块3,用于根据外界信息和认知信息,确定针对当前场景的交互决策,
动作模块4,用于确定与交互决策匹配的动作序列,并根据动作序列进行动作,实现人工虚拟生命与外界环境的交互。
本发明实施例提供的人工虚拟生命与外界交互的***,人工虚拟生命像人类或其他生命体一样,包括但不限于,认知模块1,感知模块2,决策模块3和动作模块4,其中,认知模块1,用于存储人工虚拟生命的认知信息;感知模块2,用于感知当前场景下的外界信息;决策模块3,用于根据外界信息和认知信息,确定针对当前场景的交互决策,动作模块4,用于确定与交互决策匹配的动作序列,并根据动作序列进行动作,实现人工虚拟生命与外界环境的交互。也就是说,本发明中的人工虚拟生命,能够像有生命的生命体一样,感知外界的信息并对当前场景给出相应的交互动作,即自由地与外界进行感知并进行交互。
需要说明的是,本实施例中,人工虚拟生命的交互对象为“自身”之外的事物或生命体,具体包括,人,另一人工虚拟生命,其他生命体,另一个智能生命产品等。
优选地,感知模块2包括,视觉单元,听觉单元,触觉单元,味觉单元,嗅觉单元,空间感知单元;其中,
视觉单元,听觉单元,触觉单元,味觉单元,以及嗅觉单元的硬件基础分别为摄像头,麦克风,触觉传感器,味觉传感器,嗅觉传感器;
空间感知单元的硬件基础为GPS,陀螺仪。
本实施例中,参考人的感知***及人工虚拟生命的具体情况,将感知模块2划分为:视觉单元、听觉单元、触觉单元、味觉单元、嗅觉单元和空间感知单元。前五个模块与人类相应感知功能对应,依赖于各种的摄像头、麦克风和其它传感器为硬件基础;空间感知单元是人工虚拟生命独有的,以GPS、陀螺仪等电子设备为硬件基础。需要说明的是,本实施例中,所述及的摄像头不应单纯地理解成是某一个摄像头,而应是摄像头或摄像头组成的阵列或其它与摄像头具有类似功能的元器件;且所述及的麦克风不应单纯地理解成某一个麦克风,而应是麦克风或麦克风阵列或其它具有类似功能的元器件,且其中所指的麦克风,不仅仅限于是一般使用的用于收集人耳能听到频段的声音的麦克风,还可以是非常见的具有特殊用途的麦克风,例如,可以收集高频、低频、超高频、超低频的声音的麦克风。此外,本实施例中所列举的各种类型的传感器仅为优选实施方案,并非具体限定,可结合实际需求进行选定。
具体地,交互决策包括但不限于,决定对话目标,决定查阅信息,决定移动物体,决定寻找物体。
进一步优选地,动作序列包括但不限于,面部表情,肢体动作,行为动作,设定自身状态,向外界发送控制其他物体的指令,做出语音响应。
本实施例中,为了完成交互决策的内容,人工虚拟生命需要进行相应的动作,这些动作包括人工虚拟生命在与外界交互的过程中进行的所有活动,且具体地,包括但不限于:做出面部表情;做出肢体动作,例如,举手、摆手、摇头等;做出行为动作,例如左转、右转、前进、跑;设定自身状态,例如打开自带的投影以达到增强现实的目的;向外界发送控制其它物体的指令;做出语音响应。
进一步优选地,人工虚拟生命包括,现实存在的机器形态的人工虚拟生命,虚拟形态存在的人工虚拟生命。
需要说明的是,本实施例中,做出动作的人工虚拟生命可以是现实存在的机器形态的人工虚拟生命,也可以是以虚拟形态存在的人工虚拟生命,例如,可以是以全息的形态展示在用户面前,并可进行相应动作的增强现实的虚拟人物。
进一步地,决策模块3具体用于,
根据外界信息和认知信息,并根据预先构建的决策规则或决策模型确定针对当前场景的交互决策;其中,
决策规则为,根据人工虚拟生命的功能需求建立的,从具体场景到交互决策的规则信息库;
决策模型为,以对具体场景的感知信息和与感知信息对应的决策信息作为输入,训练获得的人工智能模型。
本实施例中,根据当前场景确定交互决策是一个核心的问题。可选地,可预先构建决策规则或决策模型,如此,在实际的场景中,可以根据外界信息和认知信息,并根据预先构建的决策规则或决策模型确定针对当前场景的交互决策。具体地,根据人工虚拟生命的功能需求,建立由具体情况到交互决策的决策规则。决策模型为人工智能模型,且以大量对某一环境的感知信息和该场景对应的交互决策作为输入,训练得到最终的决策模型。需要说明的是,决策模型可以是多个二级模型的组合,例如,可以是人脸表情识别模型、物体识别模型、自然语言处理模型等中的一个或多个的组合。
进一步地,动作模块4具体用于,根据预先构建的映射关系确定与交互决策匹配的动作序列,并根据动作序列进行动作,实现人工虚拟生命与外界环境的交互。
进一步地,映射关系的构建方式为,
以交互决策和与交互决策对应的动作序列作为人工智能模型的输入,通过不断地训练和增强学习,构建交互决策与动作序列间的映射关系;
和/或,参照多学科专家***,手工建立由交互决策到动作序列的映射关系;
和/或,使用半监督的方式,以少量专家建立的规则作为基础,矫正人工智能模型建立的映射,以构建交互决策与动作序列间的映射关系。
本实施例中,由交互决策决定人工虚拟生命应该采取的动作是本专利实现的一个核心点,可选地,可预先构建映射关系,如此,在实际的场景中,可以根据预先构建的映射关系确定与交互决策匹配的动作序列,并根据动作序列进行动作,实现人工虚拟生命与外界环境的交互。
具体地,映射关系的构建方式为,
以交互决策和与交互决策对应的动作序列作为人工智能模型的输入,通过不断地训练和增强学习,构建交互决策与动作序列间的映射关系;本实施例中,使用人工智能模型建立映射。记录足够多的人在某种情况下达成某一交互决策所做的动作,然后将得到的数据作为人工智能模型的输入,通过不断的训练和增强学习,最终得到一个在某种情况下要达成某种决策所需要做的动作。
和/或,参照多学科专家***,手工建立由交互决策到动作序列的映射关系;参考专家***,由社会学、心理学、行为学、微表情心理学等学科的专家手工建立由决策到动作序列的映射或规则。
和/或,使用半监督的方式,以少量专家建立的规则作为基础,矫正人工智能模型建立的映射,以构建交互决策与动作序列间的映射关系。使用半监督的方法,以少量专家建立的规则作为基础,去矫正人工智能模型建立的映射。
实施例二
结合图2,本实施例提供的人工虚拟生命与外界交互的方法,包括,
认知步骤S1,认知模块1存储人工虚拟生命的认知信息;
感知步骤S2,感知模块2感知当前场景下的外界信息;
决策步骤S3,决策模块3根据外界信息和认知信息,确定针对当前场景的交互决策,
动作步骤S4,动作模块4确定与交互决策匹配的动作序列,并根据动作序列进行动作,实现人工虚拟生命与外界环境的交互。
本发明实施例提供的人工虚拟生命与外界交互的方法,人工虚拟生命像人类或其他生命体一样,包括但不限于,认知模块1,感知模块2,决策模块3和动作模块4,其中,认知模块1,用于存储人工虚拟生命的认知信息;感知模块2,用于感知当前场景下的外界信息;决策模块3,用于根据外界信息和认知信息,确定针对当前场景的交互决策,动作模块4,用于确定与交互决策匹配的动作序列,并根据动作序列进行动作,实现人工虚拟生命与外界环境的交互。也就是说,本发明中的人工虚拟生命,能够像有生命的生命体一样,感知外界的信息并对当前场景给出相应的交互动作,即自由地与外界进行感知并进行交互。
需要说明的是,本实施例中,人工虚拟生命的交互对象为“自身”之外的事物或生命体,具体包括,人,另一人工虚拟生命,其他生命体,另一个智能生命产品等。
优选地,感知模块2包括,视觉单元,听觉单元,触觉单元,味觉单元,嗅觉单元,空间感知单元;其中,
视觉单元,听觉单元,触觉单元,味觉单元,以及嗅觉单元的硬件基础分别为摄像头,麦克风,触觉传感器,味觉传感器,嗅觉传感器;
空间感知单元的硬件基础为GPS,陀螺仪。
本实施例中,参考人的感知***及人工虚拟生命的具体情况,将感知模块2划分为:视觉单元、听觉单元、触觉单元、味觉单元、嗅觉单元和空间感知单元。前五个模块与人类相应感知功能对应,依赖于各种的摄像头、麦克风和其它传感器为硬件基础;空间感知单元是人工虚拟生命独有的,以GPS、陀螺仪等电子设备为硬件基础。需要说明的是,所述及的摄像头不应单纯地理解成是某一个摄像头,而应是摄像头或摄像头组成的阵列或其它与摄像头具有类似功能的元器件;且所述及的麦克风不应单纯地理解成某一个麦克风,而应是麦克风或麦克风阵列或其它具有类似功能的元器件,且其中所指的麦克风,不仅仅限于是一般使用的用于收集人耳能听到频段的声音的麦克风,还可以是非常见的具有特殊用途的麦克风,例如,可以收集高频、低频、超高频、超低频的声音的麦克风。此外,本实施例中所列举的各种类型的传感器仅为优选实施方案,并非具体限定,可结合实际需求进行选定。
进一步优选地,交互决策包括但不限于,决定对话目标,决定查阅信息,决定移动物体,决定寻找物体。
进一步优选地,动作序列包括但不限于,面部表情,肢体动作,行为动作,设定自身状态,向外界发送控制其他物体的指令,做出语音响应。
本实施例中,为了完成交互决策的内容,人工虚拟生命需要进行相应的动作,这些动作包括人工虚拟生命在与外界交互的过程中进行的所有活动,且具体地,包括但不限于:做出面部表情;做出肢体动作,例如,举手、摆手、摇头等;做出行为动作,例如左转、右转、前进、跑;设定自身状态,例如打开自带的投影以达到增强现实的目的;向外界发送控制其它物体的指令;做出语音响应。
进一步优选地,人工虚拟生命包括,现实存在的机器形态的人工虚拟生命,虚拟形态存在的人工虚拟生命。
需要说明的是,本实施例中,做出动作的人工虚拟生命可以是现实存在的机器形态的人工虚拟生命,也可以是以虚拟形态存在的人工虚拟生命,例如,可以是以全息的形态展示在用户面前,并可进行相应动作的增强现实的虚拟人物。
优选地,决策步骤S3具体包括,根据外界信息和认知信息,并根据预先构建的决策规则或决策模型确定针对当前场景的交互决策;
动作步骤S4具体包括,根据预先构建的映射关系确定与交互决策匹配的动作序列,并根据动作序列进行动作,实现人工虚拟生命与外界环境的交互。
本实施例中,根据当前场景确定交互决策是一个核心的问题。可选地,可预先构建决策规则或决策模型,如此,在实际的场景中,可以根据外界信息和认知信息,并根据预先构建的决策规则或决策模型确定针对当前场景的交互决策。具体地,根据人工虚拟生命的功能需求,建立由具体情况到交互决策的决策规则。决策模型为人工智能模型,且以大量对某一环境的感知信息和该场景对应的交互决策作为输入,训练得到最终的决策模型。需要说明的是,决策模型可以是多个二级模型的组合,例如,可以是人脸表情识别模型、物体识别模型、自然语言处理模型等中的一个或多个的组合。
本实施例中,由交互决策决定人工虚拟生命应该采取的动作是本专利实现的一个核心点,可选地,可预先构建映射关系,如此,在实际的场景中,可以根据预先构建的映射关系确定与交互决策匹配的动作序列,并根据动作序列进行动作,实现人工虚拟生命与外界环境的交互。
具体地,映射关系的构建方式为,
以交互决策和与交互决策对应的动作序列作为人工智能模型的输入,通过不断地训练和增强学习,构建交互决策与动作序列间的映射关系;本实施例中,使用人工智能模型建立映射。记录足够多的人在某种情况下达成某一交互决策所做的动作,然后将得到的数据作为人工智能模型的输入,通过不断的训练和增强学习,最终得到一个在某种情况下要达成某种决策所需要做的动作。
和/或,参照多学科专家***,手工建立由交互决策到动作序列的映射关系;参考专家***,由社会学、心理学、行为学、微表情心理学等学科的专家手工建立由决策到动作序列的映射或规则。
和/或,使用半监督的方式,以少量专家建立的规则作为基础,矫正人工智能模型建立的映射,以构建交互决策与动作序列间的映射关系。使用半监督的方法,以少量专家建立的规则作为基础,去矫正人工智能模型建立的映射。
尽管本发明已进行了一定程度的描述,明显地,在不脱离本发明的精神和范围的条件下,可进行各个条件的适当变化。可以理解,本发明不限于所述实施方案,而归于权利要求的范围,其包括所述每个因素的等同替换。

Claims (9)

1.一种人工虚拟生命与外界交互的***,其特征在于,包括,
认知模块,用于存储人工虚拟生命的认知信息;
感知模块,用于感知当前场景下的外界信息;
决策模块,用于根据所述外界信息和所述认知信息,确定针对当前场景的交互决策,
动作模块,用于确定与所述交互决策匹配的动作序列,并根据所述动作序列进行动作,实现人工虚拟生命与外界环境的交互。
2.根据权利要求1所述的人工虚拟生命与外界交互的***,其特征在于,所述感知模块包括,视觉单元,听觉单元,触觉单元,味觉单元,嗅觉单元,空间感知单元;其中,
所述视觉单元,所述听觉单元,所述触觉单元,所述味觉单元,以及所述嗅觉单元的硬件基础为摄像头,麦克风,触觉传感器,味觉传感器,嗅觉传感器;所述空间感知单元的硬件基础为GPS,陀螺仪。
3.根据权利要求1所述的人工虚拟生命与外界交互的***,其特征在于,所述动作序列包括,面部表情,肢体动作,行为动作,设定自身状态,向外界发送控制其他物体的指令,做出语音响应。
4.根据权利要求1所述的人工虚拟生命与外界交互的***,其特征在于,所述人工虚拟生命包括,现实存在的机器形态的人工虚拟生命,虚拟形态存在的人工虚拟生命。
5.根据权利要求1所述的人工虚拟生命与外界交互的***,其特征在于,所述决策模块具体用于,
根据所述外界信息和所述认知信息,并根据预先构建的决策规则或决策模型确定针对当前场景的交互决策;其中,
所述决策规则为,根据人工虚拟生命的功能需求建立的,从具体场景到交互决策的规则信息库;
所述决策模型为,以对具体场景的感知信息和与感知信息对应的决策信息作为输入,训练获得的人工智能模型。
6.根据权利要求1所述的人工虚拟生命与外界交互的***,其特征在于,所述动作模块具体用于,根据预先构建的映射关系确定与所述交互决策匹配的动作序列,并根据所述动作序列进行动作,实现人工虚拟生命与外界环境的交互。
7.根据权利要求6所述的人工虚拟生命与外界交互的***,其特征在于,所述映射关系的构建方式为,
以交互决策和与交互决策对应的动作序列作为人工智能模型的输入,通过不断地训练和增强学习,构建交互决策与动作序列间的映射关系;
和/或,参照多学科专家***,手工建立由交互决策到动作序列的映射关系;
和/或,使用半监督的方式,以少量专家建立的规则作为基础,矫正人工智能模型建立的映射,以构建交互决策与动作序列间的映射关系。
8.一种人工虚拟生命与外界交互的方法,其特征在于,包括,
认知步骤,认知模块存储人工虚拟生命的认知信息;
感知步骤,感知模块感知当前场景下的外界信息;
决策步骤,决策模块根据所述外界信息和所述认知信息,确定针对当前场景的交互决策,
动作步骤,动作模块确定与所述交互决策匹配的动作序列,并根据所述动作序列进行动作,实现人工虚拟生命与外界环境的交互。
9.根据权利要求8所述的人工虚拟生命与外界交互的方法,其特征在于,
所述决策步骤具体包括,根据所述外界信息和所述认知信息,并根据预先构建的决策规则或决策模型确定针对当前场景的交互决策;
所述动作步骤具体包括,根据预先构建的映射关系确定与所述交互决策匹配的动作序列,并根据所述动作序列进行动作,实现人工虚拟生命与外界环境的交互。
CN201711337403.5A 2017-12-14 2017-12-14 人工虚拟生命与外界交互的***及方法 Pending CN108133259A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711337403.5A CN108133259A (zh) 2017-12-14 2017-12-14 人工虚拟生命与外界交互的***及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711337403.5A CN108133259A (zh) 2017-12-14 2017-12-14 人工虚拟生命与外界交互的***及方法

Publications (1)

Publication Number Publication Date
CN108133259A true CN108133259A (zh) 2018-06-08

Family

ID=62389574

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711337403.5A Pending CN108133259A (zh) 2017-12-14 2017-12-14 人工虚拟生命与外界交互的***及方法

Country Status (1)

Country Link
CN (1) CN108133259A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109685196A (zh) * 2018-12-13 2019-04-26 山东大学 基于增量式关联神经网络和动态视听融合的自主认知发育***及方法
CN111190479A (zh) * 2019-03-29 2020-05-22 码赫镭(上海)数字科技有限公司 一种智能终端设备的嵌入式应用***
CN112155485A (zh) * 2020-09-14 2021-01-01 江苏美的清洁电器股份有限公司 一种控制方法、控制装置、清洁机器人及存储介质
CN112182173A (zh) * 2020-09-23 2021-01-05 支付宝(杭州)信息技术有限公司 一种基于虚拟生命的人机交互方法、装置及电子设备
CN112734044A (zh) * 2020-11-26 2021-04-30 清华大学 人机共生方法与***

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103823551A (zh) * 2013-03-17 2014-05-28 浙江大学 一种实现多维度感知虚拟交互的***和方法
CN105511608A (zh) * 2015-11-30 2016-04-20 北京光年无限科技有限公司 基于智能机器人的交互方法及装置、智能机器人
CN106022294A (zh) * 2016-06-01 2016-10-12 北京光年无限科技有限公司 一种面向智能机器人的人机交互方法及装置
CN106663127A (zh) * 2016-07-07 2017-05-10 深圳狗尾草智能科技有限公司 一种虚拟机器人的交互方法、***及机器人
CN106660209A (zh) * 2016-07-07 2017-05-10 深圳狗尾草智能科技有限公司 智能机器人控制***、方法及智能机器人
CN107150347A (zh) * 2017-06-08 2017-09-12 华南理工大学 基于人机协作的机器人感知与理解方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103823551A (zh) * 2013-03-17 2014-05-28 浙江大学 一种实现多维度感知虚拟交互的***和方法
CN105511608A (zh) * 2015-11-30 2016-04-20 北京光年无限科技有限公司 基于智能机器人的交互方法及装置、智能机器人
CN106022294A (zh) * 2016-06-01 2016-10-12 北京光年无限科技有限公司 一种面向智能机器人的人机交互方法及装置
CN106663127A (zh) * 2016-07-07 2017-05-10 深圳狗尾草智能科技有限公司 一种虚拟机器人的交互方法、***及机器人
CN106660209A (zh) * 2016-07-07 2017-05-10 深圳狗尾草智能科技有限公司 智能机器人控制***、方法及智能机器人
CN107150347A (zh) * 2017-06-08 2017-09-12 华南理工大学 基于人机协作的机器人感知与理解方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109685196A (zh) * 2018-12-13 2019-04-26 山东大学 基于增量式关联神经网络和动态视听融合的自主认知发育***及方法
CN111190479A (zh) * 2019-03-29 2020-05-22 码赫镭(上海)数字科技有限公司 一种智能终端设备的嵌入式应用***
CN112155485A (zh) * 2020-09-14 2021-01-01 江苏美的清洁电器股份有限公司 一种控制方法、控制装置、清洁机器人及存储介质
CN112182173A (zh) * 2020-09-23 2021-01-05 支付宝(杭州)信息技术有限公司 一种基于虚拟生命的人机交互方法、装置及电子设备
CN112734044A (zh) * 2020-11-26 2021-04-30 清华大学 人机共生方法与***
CN112734044B (zh) * 2020-11-26 2023-08-01 清华大学 人机共生方法与***

Similar Documents

Publication Publication Date Title
CN108133259A (zh) 人工虚拟生命与外界交互的***及方法
CN109432753B (zh) 动作矫正方法、装置、存储介质及电子设备
US20200016745A1 (en) Data Processing Method for Care-Giving Robot and Apparatus
US11948241B2 (en) Robot and method for operating same
US20180144554A1 (en) Systems for augmented reality visual aids and tools
Hu et al. An overview of assistive devices for blind and visually impaired people
JP2020064616A (ja) 仮想ロボットのインタラクション方法、装置、記憶媒体及び電子機器
CN105141587B (zh) 一种虚拟玩偶互动方法及装置
CN113946211A (zh) 基于元宇宙的多个对象的交互方法及相关设备
CN107679519A (zh) 一种基于虚拟人的多模态交互处理方法及***
US9690784B1 (en) Culturally adaptive avatar simulator
EP3113113B1 (en) Method and apparatus for freeform cutting of digital three dimensional structures
WO2018000267A1 (zh) 一种机器人交互内容的生成方法、***及机器人
CN108563327B (zh) 增强现实方法、装置、存储介质及电子设备
US20240221296A1 (en) Inferred Shading
WO2019087502A1 (ja) 情報処理装置、情報処理方法およびプログラム
CN111383642A (zh) 基于神经网络的语音应答方法、存储介质以终端设备
WO2018171196A1 (zh) 一种控制方法、终端及***
Kang Effect of interaction based on augmented context in immersive virtual reality environment
CN114904268A (zh) 一种虚拟形象的调整方法、装置、电子设备及存储介质
US11204643B2 (en) Method and arrangement for handling haptic feedback
CN110822647A (zh) 空调器的控制方法、空调器及存储介质
CN114327083A (zh) 房产、对象的展示方法、装置、可读存储介质和电子设备
CN110822646B (zh) 空调器的控制方法、空调器及存储介质
CN110822649B (zh) 空调器的控制方法、空调器及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: Room 301, Building 39, 239 Renmin Road, Gusu District, Suzhou City, Jiangsu Province, 215000

Applicant after: SHENZHEN GOWILD ROBOTICS Co.,Ltd.

Address before: 518000 Dongfang Science and Technology Building 1307-09, 16 Keyuan Road, Yuehai Street, Nanshan District, Shenzhen City, Guangdong Province

Applicant before: SHENZHEN GOWILD ROBOTICS Co.,Ltd.

RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20180608