CN116214527A - 一种增强人机协作适应性的三体协同智能决策方法和*** - Google Patents

一种增强人机协作适应性的三体协同智能决策方法和*** Download PDF

Info

Publication number
CN116214527A
CN116214527A CN202310514680.8A CN202310514680A CN116214527A CN 116214527 A CN116214527 A CN 116214527A CN 202310514680 A CN202310514680 A CN 202310514680A CN 116214527 A CN116214527 A CN 116214527A
Authority
CN
China
Prior art keywords
decision
adaptability
robot
person
representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310514680.8A
Other languages
English (en)
Other versions
CN116214527B (zh
Inventor
***
吕志伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Fanmeili Robot Technology Co ltd
Original Assignee
Nanjing Fanmeili Robot Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Fanmeili Robot Technology Co ltd filed Critical Nanjing Fanmeili Robot Technology Co ltd
Priority to CN202310514680.8A priority Critical patent/CN116214527B/zh
Publication of CN116214527A publication Critical patent/CN116214527A/zh
Application granted granted Critical
Publication of CN116214527B publication Critical patent/CN116214527B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Biophysics (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Development Economics (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Marketing (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Manipulator (AREA)
  • Feedback Control In General (AREA)

Abstract

本发明公开了一种增强人机协作适应性的三体协同智能决策方法和***,该方法包括:S1:真人做出自身行为决策集
Figure ZY_1
;S2:机器人做出自身行为决策集
Figure ZY_2
;S3:虚拟人做出全局决策集
Figure ZY_3
;S4:虚拟人将上述三种不同的决策集输入智能决策模型,根据多级适应性的优先级顺序判断决策项差异,从而优化决策项,生成最终决策集
Figure ZY_4
。本发明设计了虚拟人‑真人‑机器人三体协同***进行智能决策,通过虚拟人的全局感知与认知结果,解决了人机协作过程中真人与机器人的感知与认知局限性,为智能决策提供了更加全面的认知基础。

Description

一种增强人机协作适应性的三体协同智能决策方法和***
技术领域
本发明属于人机协作技术领域,具体涉及人机协作的智能决策领域,特别涉及了一种增强人机协作适应性水平的三体协同智能决策方法和***。
背景技术
人类用户和机器人合作完成预定义任务的一般过程成为人机协作。人机协作过程中,机器人具有高精度的运动特性,人则具有更高的灵活性和自主性,人机的任务协作过程中需要应对时空的复杂性,空间复杂性主要来源于共享空间中的变化或不确定性,比如任务目标、人、机器人的位置与位置关系,时间复杂性是由任务的特性引发的,例如任务分解为一系列的子任务以及人机在任务过程中的行为动作规划(比如到达、握紧、抬升、传递等)。
人机之间如何实现自主决策与合作配合的博弈适应性,增强协作过程中彼此的适应性是人机协作任务的重要问题。人机对彼此动作行为的理解和应对策略成为人机协作的核心问题。目前大部分的研究只关注机器人的决策方法,仅从机器人对人的认知角度开展行为意图识别技术的研究,提高了单向的行为理解准确性。但是仍不能解决人机协作的双向信息理解问题,人机认知不一致的现象仍然存在,决策习惯与决策协同性仍不能统一,无法真正地实现人机协作任务中合作博弈过程的适应趋同。
发明内容
发明目的:为了解决上述技术问题,本发明提出一种增强人机协作适应性水平的三体协同智能决策方法和***,将人机协作的适应性范围划分为“运动-行为-角色”三级适应性,基于虚拟人-真人-机器人三体协同框架中各主体的不同决策方案,在人机实时协作过程中通过智能决策模型对人机协作过程做出智能决策优化,引导增强人机协作适应性水平,改善人机提高人机协作效果。
本发明将人机协作定义为人与机器人需要同时参与作业,发生自然物理交互的场景,人机协作的协同性定义为人机交互的适应性,并提出一种多级适应性划分标准以梳理人机协作中的时空复杂性问题,以多级适应性分析来代替时空复杂性分析。
多级适应性划分标准将人机协作中的适应性划分为运动适应性、行为适应性和角色适应性,运动适应性表征动作执行产生的任务效果,行为适应性表征行为执行产生的任务效果和人机行为匹配性,角色适应性表征人机在协作过程中扮演角色的匹配性。数学形式如下:
Figure SMS_1
其中,
Figure SMS_2
表示***的整体适应性,/>
Figure SMS_3
表示人机的运动适应性,
Figure SMS_4
表示人机的行为适应性,/>
Figure SMS_5
表示人机的角色适应性,/>
Figure SMS_6
、/>
Figure SMS_7
、/>
Figure SMS_8
则分别表示对应适应性在整体适应性中的权重系数。
三级适应性之间并不是完全独立的,而是具有某些客观的约束规律。例如角色适应性中人机应为一个主动者和一个配合者,否则会发生冲突导致任务失败;行为适应性在满足任务执行逻辑的条件之外,则同时受到角色适应性的限制,配合者应选择与主动者行为配合的动作,否则会发生冲突;运动适应性除了提高运动精度的目标之外,运动轨迹规划与控制同时受到角色和行为的限制,运动轨迹应与行为相符(例如搬运移动过程中,机器人的运动控制主要为在移动平台的驱动电机控制,机械臂应为保持原有状态,不应该有新的运动生成),运动规划应与角色相符(例如人机协作抬起桌子时,配合者抬升的高度应与主动者一致)。
利用这种多级适应性来分析和优化决策过程,通过各级适应性之间的约束和限制可使决策方案的制定过程更具逻辑性与合理性,降低决策的时空复杂性。基于此,本发明提供一种增强人机协作适应性的三体协同智能决策方法,包括以下步骤:
步骤S1:真人基于自身感知信息与认知结果,做出自身行为决策集
Figure SMS_9
步骤S2:机器人基于局部感知信息与认知结果,做出自身行为决策集
Figure SMS_10
步骤S3:虚拟人基于全局感知信息与认知结果,将任务目标与人机动力学状态输入多尺度神经动力学网络,做出全局决策集
Figure SMS_11
步骤S4:将上述三种不同的决策集输入智能决策模型,根据多级适应性的优先级顺序判断决策项差异,从而优化决策项,生成最终决策集
Figure SMS_12
进一步的,所述真人决策集
Figure SMS_13
是由虚拟人根据感知设备采集的真人行为信息(如图像、视频等),通过模型分析得到的真人运动原语序列、行为标签、角色标签集合;
所述机器人决策集
Figure SMS_14
是由虚拟人根据机器人传递的自身决策意图指令信息,生成的机器人运动原语序列、行为标签、角色标签集合;
所述虚拟人决策集
Figure SMS_15
是由虚拟人根据感知设备采集的全局感知信息,分析任务目标与人机动力学状态,最后通过多尺度神经动力学网络生成的全局运动原语序列、行为标签、角色标签集合。
进一步的,所述多尺度神经动力学网络的输入数据包含真人本体状态
Figure SMS_16
、机器人本体状态/>
Figure SMS_19
和任务感受状态/>
Figure SMS_22
,输出结果包含期望真人本体状态/>
Figure SMS_18
、期望机器人本体状态/>
Figure SMS_20
、期望任务感受状态/>
Figure SMS_21
。各数据项通过/>
Figure SMS_23
函数归一化到/>
Figure SMS_17
区间。
进一步的,所述多尺度神经动力学网络基于循环神经网络框架进行设计,其输入层和输出层之间包含表征短时、中时、长时三个时间尺度层次的网络模块:SSL、MSL、LSL与表征参数偏差的PBL,其中SSL、MSL、LSL均由LSTM单元组成,SSL、MSL、LSL的细胞状态通过输入和遗忘门进行自更新,门控单元与候选记忆单元的输入参数包括本层隐藏状态与相邻层的状态参数,其他层之间不进行参数共享传播;输入层和输出层只与SSL进行参数传递,不和其他网络模块直接发生数据关联。
进一步的,所述多尺度神经动力学网络的网络参数可采用带时间反向传播的梯度下降法进行更新,使根据高斯假设设计的关于单元状态的似然函数最大化。
进一步的,所述智能决策模型结构按照多级适应性的优先级顺序判断制定最终决策方案
Figure SMS_24
:角色适应性作为最高优先级判断,为人机分配主动者、配合者角色;行为适应性作为第二优先级判断,为人机选择与任务状态和角色相适应的动作行为;运动适应性作为第三优先级判断,为人机修正实现行为目标的运动规划;同时,在选择最终决策方案时,根据整体评价优化函数优化决策方案各决策项。
进一步的,所述整体评价优化函数的公式如下:
Figure SMS_25
其中,
Figure SMS_36
表示决策方案的介入程度,/>
Figure SMS_29
表示决策方案的任务效果,/>
Figure SMS_33
表示决策集/>
Figure SMS_34
的维度,/>
Figure SMS_38
表示决策集/>
Figure SMS_41
的维度,/>
Figure SMS_44
表示决策集
Figure SMS_37
与/>
Figure SMS_42
的维度,/>
Figure SMS_26
表示两项之间的异或计算,相同得0,不同得1;/>
Figure SMS_30
与/>
Figure SMS_35
表示最终决策方案/>
Figure SMS_39
与真人决策方案/>
Figure SMS_40
的对应项,/>
Figure SMS_43
与/>
Figure SMS_27
表示最终决策方案/>
Figure SMS_32
与机器人决策方案/>
Figure SMS_28
的对应项,第一行公式表示整体优化函数的计算方法,取函数值最小的方案
Figure SMS_31
作为最终决策方案。
此外,本发明还提供了一种增强人机协作适应性的三体协同智能决策***,包括虚拟人、机器人、真人三个参与主体,功能层次包括感知层、认知层、决策层、执行层,由此利用上述三体协同智能决策方法生成最终决策。
有益效果:
1、本发明设计了虚拟人-真人-机器人三体协同***进行智能决策,通过虚拟人的全局感知与认知结果,解决了人机协作过程中真人与机器人的感知与认知局限性,为智能决策提供了更加全面的认知基础;
2、本发明在虚拟人的决策过程中设计了多尺度神经动力学网络模型,从不同的时间尺度将运动、行为、角色三个层次的决策适应性统一起来,简化人机协作适应性决策的复杂程度,并提高了决策方案的适应性效果;
3、本发明设计了兼顾介入程度最小化与任务效果最优的智能决策机制,在保证决策方案任务效果的条件下,减少任务干扰的频率,提高任务的连贯性与人机的舒适性。
附图说明
图1是本发明实施例的整体流程图;
图2是本发明实施例中多尺度神经动力学网络的结构示意图;
图3是本发明实施例中SSL内部的参数传递过程图;
图4是本发明实施例中多尺度神经动力学网络各层之间的参数传递过程图;
图5是本发明实施例中智能决策模型的决策过程图。
实施方式
以下结合附图和具体的实施例对本发明作进一步详细说明。根据下面的说明,本发明的优点和特征将更清楚。
如图1所示为本实施例提供的一种增强人机协作适应性的三体协同智能决策方法,应用在三体协同任务执行的实时过程中,具体步骤如下:
S1:真人基于局部感知信息与认知结果,做出自身行为决策集
Figure SMS_45
所述真人决策集
Figure SMS_46
是由虚拟人根据感知设备采集真人的视频图像,通过设备标定与识别模型得到人的状态信息,通过数据化处理生成的真人运动原语序列、行为标签、角色标签集合。
特别的,在本实施例中所述t时刻运动原语序列指人的运动信息,包括但不限于[position_x, position_y, left_hand_x, left_hand_y, left_hand_z, right_hand_y,right_hand_y, right_hand_z, touch_state, body_state, velocity, ……],对应{位置信息、双手位置信息,接触状态,形体状态,速度,……}等信息;行为标签包括但不限于[action_state, motion_state, ……],对应动作状态和运动状态等信息,其中动作状态可表征{抓取,释放,抬升,放置,移动,转弯,……}等信息,运动状态可表征{加速,减速,匀速,静止,……}等信息;角色标签{role_play},可表征{主导人员,配合人员}等信息。
S2:机器人基于局部感知信息与认知结果,做出自身行为决策集
Figure SMS_47
所述机器人决策集
Figure SMS_48
是由虚拟人根据机器人传递的自身决策意图指令信息,生成的机器人运动原语序列、行为标签、角色标签集合。
特别的,在本实施例中当机器人包含移动平台和7自由度机械臂时,其t时刻运动原语序列包含[position_x, position_y,vehicle_motor_0, vehicle_motor_1,vehicle_motor_2, vehicle_motor_3,arm_joint_0,arm_joint_1,arm_joint_2,arm_joint_3,arm_joint_4,……]等信息,表征{位置信息,移动平台电机信息,机械臂关节信息,末端夹爪信息,……}等。行为标签与角色标签与S1类似。
S3:虚拟人基于全局感知信息与认知结果,将任务目标与人机动力学状态反馈输入多尺度神经动力学网络,做出全局决策集
Figure SMS_49
所述虚拟人决策集
Figure SMS_50
是由虚拟人根据感知设备采集的全局感知信息,分析任务目标与人机动力学状态,最后通过多尺度神经动力学网络生成的全局运动原语序列、行为标签、角色标签集合。整体组成与所述S1,S2中类似,扩展为人与机器人的信息综合。/>
如图2所示,多尺度神经动力学网络结构包括:
Ⅰ、Input Layer(输入层);
Ⅱ、Short-time Scale Layer(SSL);
Ⅲ、Medium-time Scale Layer(MSL);
Ⅳ、Long-time Scale Layer(LSL);
Ⅴ、Parametric Bias Layer(PBL);
Ⅵ、Output Layer(输出层)。
输入层的输入数据序列格式包含真人本体状态
Figure SMS_52
、机器人本体状态/>
Figure SMS_54
和任务感受状态/>
Figure SMS_55
;输出层的输出结果序列格式包含期望真人本体状态/>
Figure SMS_53
、期望机器人本体状态/>
Figure SMS_56
、期望任务感受状态/>
Figure SMS_57
。各数据项通过/>
Figure SMS_58
函数归一化到
Figure SMS_51
区间。
输入层和输出层之间包含表征短时、中时、长时三个时间尺度层次的网络模块:SSL、 MSL、 LSL,以及表征参数偏差的PBL,不同网络层次间按照一定的约束进行连接。网络参数的优化方式可采用带时间反向传播的梯度下降法进行更新,使根据高斯假设设计的关于单元状态的似然函数最大化。
SSL表征快速动态过程,通过训练获得运动原语详细表示,最小化运动预测误差;MSL表征中速动态过程,通过训练获得行为标签表示,最小化行为选择误差;LSL表征慢速动态过程,通过训练获得角色标签表示,最小化角色选择误差。
SSL、MSL、LSL均由LSTM单元组成,以SSL为例,其参数传递的网络结构如图3所示,其中
Figure SMS_59
与/>
Figure SMS_60
表示sigmoid和tanh函数,/>
Figure SMS_61
表示输入门、遗忘门、输出门等门控单元,
Figure SMS_62
表示向量加法,FCL表示全连接层。
如图4所示,所述各层之间的连接约束包括:SSL、MSL、LSL的细胞状态通过输入和遗忘门进行自更新,门控单元与候选记忆单元的输入参数包括本层隐藏状态ht-1与相邻层的状态参数ht-1,其他层之间不进行参数共享传播,有助于改善不同时间尺度的时间动态性约束和功能层次的自组织。输入层和输出层只与SSL进行参数传递,不和其他网络模块直接发生数据关联。
所述输入输出层为全连接层,神经元数目根据输入输出数据维度设置。特别的,当输入输出数据维度为32时,输入输出层的单元数均为32。SSL、MSL、LSL各层门控中的隐藏单元数目可按照数据规模与数据维度调整。特别的,当输入输出数据维度为32,每个批次样本数为64时,SSL、MSL、LSL的隐藏单元数目可分别设置为200、20、2。PBL用参数偏差来表征任务类型,单元数设置为2,可根据任务类型数目进行调整。
S4:虚拟人将上述三种不同的决策集输入智能决策模型,根据多级适应性的优先级顺序判断决策项差异,从而优化决策项,生成最终决策集
Figure SMS_63
,并传达给各主体执行。
如图5所示,智能决策模型按照多级适应性的优先级顺序判断制定最终决策方案
Figure SMS_64
:角色适应性作为最高优先级判断,为人机合理分配主动者、配合者角色;行为适应性作为第二优先级判断,为人机合理选择与任务状态和角色相适应的动作行为;运动适应性作为第三优先级判断,为人机修正实现行为目标的运动规划。
同时,在选择最终决策方案时,设计整体评价优化函数优化决策方案各决策项。整体评价优化函数兼顾考虑生成介入程度最小与任务效果最优,优化函数的公式如下:
Figure SMS_65
具体的,第一行公式表示整体优化函数的计算方法(考虑介入程度与任务效果),取函数值最小的方案
Figure SMS_66
作为最终决策方案,第二、三行公式分别为介入程度和任务效果的计算方法,介入程度计算时分别对人和机器人的介入程度展开计算。
其中,
Figure SMS_79
表示决策方案的介入程度,/>
Figure SMS_70
表示决策方案的任务效果,/>
Figure SMS_73
表示决策集/>
Figure SMS_75
的维度,/>
Figure SMS_76
表示决策集/>
Figure SMS_80
的维度,/>
Figure SMS_83
表示决策集
Figure SMS_74
与/>
Figure SMS_78
的维度。/>
Figure SMS_67
表示两项之间的异或计算,相同得0,不同得1;/>
Figure SMS_71
与/>
Figure SMS_77
表示最终决策方案/>
Figure SMS_82
与真人决策方案/>
Figure SMS_81
的对应项,/>
Figure SMS_84
与/>
Figure SMS_68
表示最终决策方案/>
Figure SMS_72
与机器人决策方案/>
Figure SMS_69
的对应项。
本实施例中,所述三体协同框架中的参与主体为虚拟人、机器人、真人,功能层次包括感知层、认知层、决策层、执行层。
具体的,虚拟人为分布式云端智能体,是协作过程最高级别的观察者与决策者,具有所有感知信息的集成能力与综合的智能决策能力;人与机器人是协作过程的行动者,具有局部感知能力和决策能力。
感知层包括人的视/听/触觉、机器人的视/听/触觉传感器、空间图像传感器等,实时获取全局感知信息包括对环境、真人和机器人的感知信息;认知层包括三个主体的认知能力,对各自获取的感知信息做出认知判断;决策层包括三个主体的决策能力以及一个智能决策模型,对任务执行方案做出决策和调整优化;执行层包括真人与机器人的执行终端,对决策方案进行执行完成任务。
上述描述仅是对本发明较佳实施例的描述,并非对本发明权利范围的任何限定,任何本领域技术人员在不脱离本发明的精神和范围内,都可以利用上述揭示的方法和技术内容对本发明技术方案做出可能的变动和修改,因此,凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化及修饰,均属于本发明技术方案的保护范围。

Claims (8)

1.一种增强人机协作适应性的三体协同智能决策方法,其特征在于,包括:
步骤S1:真人基于局部感知信息与认知结果,做出自身行为决策集
Figure QLYQS_1
步骤S2:机器人基于局部感知信息与认知结果,做出自身行为决策集
Figure QLYQS_2
步骤S3:虚拟人基于全局感知信息与认知结果,将任务目标与人机动力学状态输入多尺度神经动力学网络,做出全局决策集
Figure QLYQS_3
步骤S4:将上述三种不同的决策集输入智能决策模型,根据多级适应性的优先级顺序判断决策项差异,从而优化决策项,生成最终决策集
Figure QLYQS_4
2.根据权利要求1所述的三体协同智能决策方法,其特征在于,所述真人决策集
Figure QLYQS_5
是由虚拟人根据感知设备采集的真人行为信息,分析得到的真人运动原语序列、行为标签、角色标签集合;
所述机器人决策集
Figure QLYQS_6
是由虚拟人根据机器人传递的自身决策意图指令信息,生成的机器人运动原语序列、行为标签、角色标签集合;
所述虚拟人决策集
Figure QLYQS_7
是由虚拟人根据感知设备采集的全局感知信息,分析任务目标与人机动力学状态,最后通过多尺度神经动力学网络生成的全局运动原语序列、行为标签、角色标签集合。
3.根据权利要求1所述的三体协同智能决策方法,其特征在于,所述多尺度神经动力学网络的输入数据包含真人本体状态
Figure QLYQS_8
、机器人本体状态/>
Figure QLYQS_9
和任务感受状态
Figure QLYQS_10
,其输出结果包含期望真人本体状态/>
Figure QLYQS_11
、期望机器人本体状态/>
Figure QLYQS_12
、期望任务感受状态/>
Figure QLYQS_13
4.根据权利要求1所述的三体协同智能决策方法,其特征在于,所述多尺度神经动力学网络基于循环神经网络框架进行设计,其输入层和输出层之间包含表征短时、中时、长时三个时间尺度层次的网络模块:SSL、MSL、LSL与表征参数偏差的PBL,其中SSL、MSL、LSL均由LSTM单元组成,SSL、MSL、LSL的细胞状态通过输入和遗忘门进行自更新,门控单元与候选记忆单元的输入参数包括本层隐藏状态与相邻层的状态参数,其他层之间不进行参数共享传播;输入层和输出层只与SSL进行参数传递,不和其他网络模块直接发生数据关联。
5.根据权利要求4所述的三体协同智能决策方法,其特征在于,所述多尺度神经动力学网络的网络参数采用带时间反向传播的梯度下降法进行更新,使根据高斯假设设计的关于单元状态的似然函数最大化。
6.根据权利要求1所述的三体协同智能决策方法,其特征在于,所述智能决策模型结构按照多级适应性的优先级顺序判断制定最终决策方案
Figure QLYQS_14
:角色适应性作为最高优先级判断,为人机分配主动者、配合者角色;行为适应性作为第二优先级判断,为人机选择与任务状态和角色相适应的动作行为;运动适应性作为第三优先级判断,为人机修正实现行为目标的运动规划;同时,在选择最终决策方案时,根据整体评价优化函数优化决策方案各决策项。
7.根据权利要求6所述的三体协同智能决策方法,其特征在于,所述整体评价优化函数的公式如下:
Figure QLYQS_15
其中,
Figure QLYQS_25
表示决策方案的介入程度,/>
Figure QLYQS_16
表示决策方案的任务效果,/>
Figure QLYQS_21
表示决策集/>
Figure QLYQS_18
的维度,/>
Figure QLYQS_20
表示决策集/>
Figure QLYQS_24
的维度,/>
Figure QLYQS_30
表示决策集/>
Figure QLYQS_26
与/>
Figure QLYQS_28
的维度,/>
Figure QLYQS_19
表示两项之间的异或计算,相同得0,不同得1;/>
Figure QLYQS_23
与/>
Figure QLYQS_29
表示最终决策方案/>
Figure QLYQS_33
与真人决策方案/>
Figure QLYQS_32
的对应项,/>
Figure QLYQS_34
与/>
Figure QLYQS_17
表示最终决策方案/>
Figure QLYQS_22
与机器人决策方案
Figure QLYQS_27
的对应项,第一行公式表示整体优化函数的计算方法,取函数值最小的方案/>
Figure QLYQS_31
作为最终决策方案。
8.一种增强人机协作适应性的三体协同智能决策***,包括虚拟人、机器人、真人三个参与主体,且利用权利要求1-7中任一所述三体协同智能决策方法生成最终决策。
CN202310514680.8A 2023-05-09 2023-05-09 一种增强人机协作适应性的三体协同智能决策方法和*** Active CN116214527B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310514680.8A CN116214527B (zh) 2023-05-09 2023-05-09 一种增强人机协作适应性的三体协同智能决策方法和***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310514680.8A CN116214527B (zh) 2023-05-09 2023-05-09 一种增强人机协作适应性的三体协同智能决策方法和***

Publications (2)

Publication Number Publication Date
CN116214527A true CN116214527A (zh) 2023-06-06
CN116214527B CN116214527B (zh) 2023-08-11

Family

ID=86575399

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310514680.8A Active CN116214527B (zh) 2023-05-09 2023-05-09 一种增强人机协作适应性的三体协同智能决策方法和***

Country Status (1)

Country Link
CN (1) CN116214527B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116777402A (zh) * 2023-06-19 2023-09-19 华东师范大学 一种基于元认知的面向群体协作的个性化角色定位方法

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102914967A (zh) * 2012-09-21 2013-02-06 浙江工业大学 采摘机器人的自主导航和人机协同采摘作业***
WO2017168187A1 (en) * 2016-03-31 2017-10-05 Siemens Industry Software Ltd. Method and system for determining optimal positioning of a plurality of robots in a simulated production environment
US20190220993A1 (en) * 2018-01-18 2019-07-18 Samsung Electronics Co., Ltd. Pose estimation method, method of displaying virtual object using estimated pose, and apparatuses performing the same
KR102038052B1 (ko) * 2019-04-22 2019-10-29 국방과학연구소 군집 의사결정 방법 및 이를 수행하는 로봇
US10899017B1 (en) * 2017-08-03 2021-01-26 Hrl Laboratories, Llc System for co-adaptation of robot control to human biomechanics
CN112936267A (zh) * 2021-01-29 2021-06-11 华中科技大学 一种人机协作智能制造方法及***
CN113147294A (zh) * 2021-04-30 2021-07-23 东南大学 一种陆空两栖自主侦查机器人及工作方法
CN113343583A (zh) * 2021-06-29 2021-09-03 河北工程大学 一种基于连续时间神经动力学网络的水质评价方法
CN114030485A (zh) * 2021-12-21 2022-02-11 吉林大学 一种考虑附着系数的自动驾驶汽车类人换道决策规划方法
WO2022048403A1 (zh) * 2020-09-01 2022-03-10 魔珐(上海)信息科技有限公司 基于虚拟角色的多模态交互方法、装置及***、存储介质、终端
WO2022088593A1 (zh) * 2020-10-26 2022-05-05 北京理工大学 机械臂的控制方法、装置及人机协同模型的训练方法
US20220161421A1 (en) * 2019-08-12 2022-05-26 Neurocean Technologies Inc. Brain-like decision-making and motion control system
WO2022116716A1 (zh) * 2020-12-01 2022-06-09 达闼机器人股份有限公司 云端机器人***、云服务器、机器人控制模块和机器人
CN114926837A (zh) * 2022-05-26 2022-08-19 东南大学 一种基于人-物时空交互行为的情感识别方法
CN114973422A (zh) * 2022-07-19 2022-08-30 南京应用数学中心 一种基于三维人体建模点云特征编码的步态识别方法
WO2022227105A1 (zh) * 2021-04-30 2022-11-03 广州中国科学院软件应用技术研究所 一种基于端云融合的协同控制***及方法
CN115407750A (zh) * 2022-08-12 2022-11-29 北京津发科技股份有限公司 人机协同智能***决策能力的测评方法及***

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102914967A (zh) * 2012-09-21 2013-02-06 浙江工业大学 采摘机器人的自主导航和人机协同采摘作业***
WO2017168187A1 (en) * 2016-03-31 2017-10-05 Siemens Industry Software Ltd. Method and system for determining optimal positioning of a plurality of robots in a simulated production environment
US10899017B1 (en) * 2017-08-03 2021-01-26 Hrl Laboratories, Llc System for co-adaptation of robot control to human biomechanics
US20190220993A1 (en) * 2018-01-18 2019-07-18 Samsung Electronics Co., Ltd. Pose estimation method, method of displaying virtual object using estimated pose, and apparatuses performing the same
KR102038052B1 (ko) * 2019-04-22 2019-10-29 국방과학연구소 군집 의사결정 방법 및 이를 수행하는 로봇
US20220161421A1 (en) * 2019-08-12 2022-05-26 Neurocean Technologies Inc. Brain-like decision-making and motion control system
WO2022048403A1 (zh) * 2020-09-01 2022-03-10 魔珐(上海)信息科技有限公司 基于虚拟角色的多模态交互方法、装置及***、存储介质、终端
WO2022088593A1 (zh) * 2020-10-26 2022-05-05 北京理工大学 机械臂的控制方法、装置及人机协同模型的训练方法
WO2022116716A1 (zh) * 2020-12-01 2022-06-09 达闼机器人股份有限公司 云端机器人***、云服务器、机器人控制模块和机器人
CN112936267A (zh) * 2021-01-29 2021-06-11 华中科技大学 一种人机协作智能制造方法及***
CN113147294A (zh) * 2021-04-30 2021-07-23 东南大学 一种陆空两栖自主侦查机器人及工作方法
WO2022227105A1 (zh) * 2021-04-30 2022-11-03 广州中国科学院软件应用技术研究所 一种基于端云融合的协同控制***及方法
CN113343583A (zh) * 2021-06-29 2021-09-03 河北工程大学 一种基于连续时间神经动力学网络的水质评价方法
CN114030485A (zh) * 2021-12-21 2022-02-11 吉林大学 一种考虑附着系数的自动驾驶汽车类人换道决策规划方法
CN114926837A (zh) * 2022-05-26 2022-08-19 东南大学 一种基于人-物时空交互行为的情感识别方法
CN114973422A (zh) * 2022-07-19 2022-08-30 南京应用数学中心 一种基于三维人体建模点云特征编码的步态识别方法
CN115407750A (zh) * 2022-08-12 2022-11-29 北京津发科技股份有限公司 人机协同智能***决策能力的测评方法及***

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
吕志伟 等: "Tightly Coupled GNSS/INS Integration Spoofing Detection Algorithm Based on Innovation Rate Optimization and Robust Estimation", IEEE, vol. 10, pages 72444 - 72457 *
江济良;屠大维;张国栋;赵其杰;: "基于认知模型的室内移动服务机器人人机耦合协同作业机制", 智能***学报, no. 03, pages 251 - 258 *
焦玉民;王强;徐婷;苏京;: "智能虚拟维修环境多Agent协作机制", ***工程与电子技术, no. 06, pages 1348 - 1352 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116777402A (zh) * 2023-06-19 2023-09-19 华东师范大学 一种基于元认知的面向群体协作的个性化角色定位方法
CN116777402B (zh) * 2023-06-19 2024-01-30 华东师范大学 一种基于元认知的面向群体协作的个性化角色定位方法

Also Published As

Publication number Publication date
CN116214527B (zh) 2023-08-11

Similar Documents

Publication Publication Date Title
Liu et al. Robot learning towards smart robotic manufacturing: A review
Bu et al. A smart agriculture IoT system based on deep reinforcement learning
Sigaud et al. On-line regression algorithms for learning mechanical models of robots: a survey
CN110119844A (zh) 引入情绪调控机制的机器人运动决策方法、***、装置
CN107150347A (zh) 基于人机协作的机器人感知与理解方法
Bien et al. Effective learning system techniques for human–robot interaction in service environment
Chen et al. Information-driven multirobot behavior adaptation to emotional intention in human–robot interaction
CN116214527B (zh) 一种增强人机协作适应性的三体协同智能决策方法和***
Han et al. Binary symbiotic organism search algorithm for feature selection and analysis
Peña Reyes et al. 3 Coevolutionary Fuzzy Modeling
CN112990485A (zh) 基于强化学习的知识策略选择方法与装置
Fung et al. Adaptive categorization of ART networks in robot behavior learning using game-theoretic formulation
Deb et al. SVM-based tree-type neural networks as a critic in adaptive critic designs for control
Jordan et al. Closing the loop between neural network simulators and the OpenAI Gym
Kubota et al. Robot design support system based on interactive evolutionary computation using boltzmann selection
Saxena et al. Advancement of industrial automation in integration with robotics
CN115091467A (zh) 一种基于模糊Petri网的意图预测与消歧方法及***
CN213843825U (zh) 一种面向鞋服展示的人形机器人控制***
Gonzalez-Fierro et al. Behavior sequencing based on demonstrations: a case of a humanoid opening a door while walking
Fernandez-Fernandez et al. Neural style transfer with twin-delayed DDPG for shared control of robotic manipulators
Jain et al. Practical applications of computational intelligence techniques
Takhavova et al. Neural networks for the moving objects control
Lu et al. Autonomous cognition and correction system of robot service based on emotional information and case-based reasoning
Abdulsamad et al. Variational Hierarchical Mixtures for Probabilistic Learning of Inverse Dynamics
Daly Recognition and Synthesis of Object Transport Motion

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant