CN115781764A - 协作机器人共融能力测试任务及其综合评价方法 - Google Patents

协作机器人共融能力测试任务及其综合评价方法 Download PDF

Info

Publication number
CN115781764A
CN115781764A CN202211571541.0A CN202211571541A CN115781764A CN 115781764 A CN115781764 A CN 115781764A CN 202211571541 A CN202211571541 A CN 202211571541A CN 115781764 A CN115781764 A CN 115781764A
Authority
CN
China
Prior art keywords
robot
collaborative
evaluation index
evaluation
capability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211571541.0A
Other languages
English (en)
Other versions
CN115781764B (zh
Inventor
赵京
姚季伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN202211571541.0A priority Critical patent/CN115781764B/zh
Publication of CN115781764A publication Critical patent/CN115781764A/zh
Application granted granted Critical
Publication of CN115781764B publication Critical patent/CN115781764B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了协作机器人共融能力测试任务及其综合评价方法,属于协作机器人性能测试与综合评价技术领域。包括以下步骤,S1、根据现有国家标准或国际标准,使用德菲尔法和皮尔逊相关系数方法遴选出协作机器人共融能力第一类评价指标;S2、通过K‑means算法的文本聚类过程,遴选出协作机器人共融能力第二类评价指标。S3、合并第一类和第二类评价指标,构建出一套主客观结合、***完整、科学合理和前沿创新的协作机器人共融能力评价指标体系;S4、基于上述评价指标体系,结合协作机器人的实际应用与前沿探索,设计出五项协作机器人共融能力测试任务;S5、使用模糊网络分析法,对协作机器人共融能力测试任务进行综合评价。

Description

协作机器人共融能力测试任务及其综合评价方法
技术领域
本发明涉及协作机器人性能测试与综合评价技术领域,具体是指协作机器人共融能力测试任务及其综合评价方法。
背景技术
共融机器人这一概念由我国首先提出,它是指能与作业环境、人和其它机器人自然交互、自主适应复杂动态环境并协同作业的机器人。协作机器人作为共融机器人的代表性研究对象之一,得到了国内外诸多研究人员的关注,它正朝着与人、环境和其它协作机器人共融的方向发展,这就要求其具备较高的共融能力。
目前,有关协作机器人的国家标准和国际标准有:GB/T 36008-2018、GB/T38559-2020、GB/T 39633-2020和ISO/TS 15066:2016等,这些标准主要针对协作机器人的硬件参数、软件配置和安全规范等进行了规定,而缺少对协作机器人共融能力的评价指标制定、测试任务设计和综合评价方法研究。因此,亟需构建出一套主客观结合、***完整、科学合理和前沿创新的协作机器人共融能力评价指标体系。
然而,协作机器人的评价指标种类繁多且交叉融合,需要以针对性强和适用性好的方法构建出协作机器人共融能力评价指标体系。因此,本发明将根据评价指标的数据类型,将协作机器人共融能力评价指标划分为第一类、第二类评价指标,并使用相应方法构建出协作机器人共融能力评价指标体系。
在现有协作机器人性能测试中,大多数以单一性能测试的方式进行,而缺少以任务为导向的性能测试方法。同时,协作机器人目前广泛应用于3C电子装配、上下料、喷涂和打磨等场景。于是,设计出一套有机结合协作机器人实际应用与前沿探索的协作机器人共融能力测试任务,并制定出相应的任务加分项(评分标准),显得至关重要。
在综合评价方法方面,主要有层次分析法、灰色关联分析法和模糊综合评价法等客观定量评价方法和直接打分法、问卷调查法和专家会议法等主观定性评价方法。在测试任务和任务加分项(评分标准)的前提下,缺少一种主客观性结合且能够直观反映各测试任务评价指标获得分数的评价方法。
基于此,本发明提供了协作机器人共融能力测试任务及其综合评价方法。
发明内容
以下给出一个或多个方面的主要概述以应对这些方面的基本理解。此概述不能将所有构想的方面进行详述,其唯一的目的是要以简化形式给出一个或多个方面的一些概念以为稍后给出的更加详细的描述之序。
本发明提出协作机器人共融能力测试任务及其综合评价方法,包括步骤:
S1:根据现有国家标准或国际标准,使用德菲尔法遴选出协作机器人共融能力第一类评价指标中的基本参数评价指标;
S2:使用德菲尔法初选出机器人(机械臂)文献中的经典评价指标,计算各类指标下具体指标间的皮尔逊相关系数进行指标筛选,确定出灵活性性能指标(x1类)、基于影响系数的运动学性能指标(x2类)、基于影响系数的动力学性能指标(x3)、全域性能指标(x4类),具体步骤包括:
S21:采集LBR iiwa 14R820协作机器人在500种不同位形下(非奇异位形)的数据,利用Matlab进行指标数值计算;
S22:计算各类指标下具体指标间的皮尔逊相关系数rij
Figure BDA0003987937740000021
其中,Ii,k和Ij,k分别为Ii和Ij的第k个观测值,i=1,2,···,n,j=1,2,···,n,k=1,2,···m,rij为第i个和第j个评价指标之间的皮尔逊相关系数。
S23:设定临界值M为0.90,进行指标筛选以确定协作机器人共融能力第一类评价指标中的典型性能评价指标。
S3:计算筛选前后协作机器人共融能力第一类评价指标数据协方差矩阵的迹,具体步骤包括:
Figure BDA0003987937740000031
其中,S1和S2分别表示评价指标数据定量筛选前后的协方差矩阵,trS1和trS2分别表示S1和S2的迹。
S31:设定In0=90%,对协作机器人共融能力第一类评价指标体系进行合理性检验。若In≥In 0=90%,则通过合理性检验。
S4:通过基于K-means聚类算法的文本聚类过程,遴选出协作机器人共融能力第二类评价指标,具体步骤包括:
S41:构建出由1700篇中英文文献组成的协作机器人共融能力评价指标文本集。
S42:使用中科院计算机所的NLPIR-ICTCLAS***对上述文本集进行预处理。
S43:使用几率比进行特征降维,几率比计算公式为:
Figure BDA0003987937740000032
其中,pos表示正例文本集合,neg表示反例文本集合。正例出现条件下,特征项t出现概率越大;反例出现条件下,特征项t出现概率越小。几率比越大,特征项t对正确分类作用越大。
S44:使用向量空间模型对上述文本集进行文本表示,并使用词频-逆文档频率数(TF-IDF)算法进行特征项赋权,其计算公式为:
Figure BDA0003987937740000041
其中,
Figure BDA0003987937740000042
为特征项t在文本d中出现的频率,nt,d为特征项t在文本d中出现的次数,Nd为文本d中单词总数;
Figure BDA0003987937740000043
为特征项t的逆文档频率,N为文本总数,nt为文本集中包含特征项t的文本数.
Figure BDA0003987937740000044
为算法中的归一化因子。
S44:计算文本间的余弦相似度,余弦相似度的计算公式为:
Figure BDA0003987937740000045
其中,xi和yi分别表示文本向量x和y在向量空间模型下某一维度的坐标。
S45:使用K-means聚类算法对上述文本集进行文本聚类,再使用卡方独立性检验方法计算聚类后各类别文本下关联度排名前十三的特征词,以筛选出协作机器人共融能力第二类评价指标,卡方独立性检验方法的计算公式为:
Figure BDA0003987937740000046
其中,X2(t,Hf)为特征词t与类别Hm间的CHI值;Hm为聚类结果的第m类;N为文本总数;A为包含共融性能评价指标(特征词t)且属于类别Hm的文本记录数量;B为包含共融性能评价指标(特征词t)但不属于类别Hm的文本记录数量;C为不包含共融性能评价指标(特征词t)但属于类别Hm的文本记录数量;G为不包含共融性能评价指标(特征词t)且不属于类别Hm的文本记录数量。
S5:合并协作机器人共融能力第一类和第二类评价指标,构建出协作机器人共融能力评价指标体系。
S6:基于上述评价指标体系,结合协作机器人的实际应用与前沿探索,设计出五项协作机器人共融能力测试任务,具体步骤包括:
S61:设计出协作机器人-协作机器人共融能力测试任务一,测试任务所含评价指标:静态协作、松协调运动控制、自适应阻抗控制、静态任务分配、实时通讯、碰撞检测、实时避障与运动规划。
S62:设计出协作机器人-协作机器人共融能力测试任务二,测试任务所含评价指标:动态协作、紧协调运动控制、力/位混合控制、动态任务分配、实时通讯、碰撞避免、实时避障与运动规划。
S63:设计出协作机器人-人共融能力测试任务一,测试任务所含评价指标:非接触式人机交互、自主决策、任务规划与协调、运动规划、主动避碰、人体行为识别和人类意图理解。
S64:设计出协作机器人-人共融能力测试任务二,测试任务所含评价指标:接触式人机交互、力/位混合控制、自适应阻抗控制、人机协作、模仿学习、任务规划与协调、运动规划和主动避碰。
S65:设计出协作机器人-环境共融能力测试任务,测试任务所含评价指标:作业环境建模、多模态信息融合与处理、非结构化环境下运动规划、实时避障、碰撞避免、碰撞检测、力/位混合控制。控制方法:自适应阻抗控制和智能化控制二选一。机器人位姿估计方法:卡尔曼滤波算法和自适应互补滤波算法二选一。
S7:根据协作机器人共融能力测试任务下各加分项、测试任务评价指标之间的依存与反馈关系,提出模糊网络分析法对协作机器人共融能力测试任务进行综合评价。
附图说明
构成本发明的一部分的说明书附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本发明的不当限定。
图1是本发明的协作机器人共融能力第一类评价指标体系中的基本参数评价指标;
图2是本发明的协作机器人共融能力第一类评价指标体系中的典型性能评价指标;
图3是本发明的协作机器人共融能力第二类评价指标体系;
图4是本发明的协作机器人-协作机器人共融能力测试任务一的示意图;
图5是本发明的协作机器人-协作机器人共融能力测试任务二的示意图;
图6是本发明的协作机器人-人共融能力测试任务一的示意图;
图7是本发明的协作机器人-人共融能力测试任务二的示意图;
图8是本发明的圆锥体海绵画刷产生的直线宽度D0与竖直施加力F的拟合曲线;
图9是本发明的协作机器人-环境共融能力测试任务的示意图;
具体实施方式
以下结合附图和具体实施例对本发明作详细描述。注意,以下结合附图和具体实施例描述的诸方面仅是示例性的,而不应被理解为对本发明的保护范围进行任何限制。
根据现有国家标准或国际标准,使用德菲尔法遴选出协作机器人共融能力第一类评价指标中的基本参数评价指标。
使用德菲尔法初选出机器人(机械臂)文献中的经典评价指标,计算各类指标下具体指标间的皮尔逊相关系数进行指标筛选,确定出灵活性性能指标(x1类)、基于影响系数的运动学性能指标(x2类)、基于影响系数的动力学性能指标(x3)、全域性能指标(x4类)。采集iiwa协作机器人在500种不同位形下(非奇异位形)的数据,利用Matlab进行指标数值计算。
计算各类指标下具体指标间的皮尔逊相关系数rij
Figure BDA0003987937740000071
其中,Ii,k和Ij,k分别为Ii和Ij的第k个观测值,i=1,2,···,n,j=1,2,···,n,k=1,2,···m,rij为第i个和第j个评价指标之间的皮尔逊相关系数。
设定临界值M为0.90,进行指标筛选以确定协作机器人共融能力第一类评价指标中的典型性能评价指标。
计算筛选前后协作机器人共融能力第一类评价指标数据协方差矩阵的迹,具体步骤包括:
Figure BDA0003987937740000072
其中,S1和S2分别表示评价指标数据定量筛选前后的协方差矩阵,trS1和trS2分别表示S1和S2的迹。
设定In0=90%,对协作机器人共融能力第一类评价指标体系进行合理性检验。计算得In≥In0=90%,协作机器人共融能力第一类评价指标体系通过合理性检验,其具体内容如附图1和附图2所示。
通过基于K-means聚类算法的文本聚类过程,遴选出协作机器人共融能力第二类评价指标,具体步骤包括:
构建出由1700篇机器人学领域高质量期刊中的中英文文献组成的协作机器人共融能力评价指标文本集。
使用中科院计算机所的NLPIR-ICTCLAS***对上述文本集进行预处理。
使用几率比进行特征降维,几率比计算公式为:
Figure BDA0003987937740000081
其中,pos表示正例文本集合,neg表示反例文本集合。正例出现条件下,特征项t出现概率越大;反例出现条件下,特征项t出现概率越小。几率比越大,特征项t对正确分类作用越大。
使用向量空间模型对上述文本集进行文本表示,并使用词频-逆文档频率数(TF-IDF)算法进行特征项赋权,其计算公式为:
Figure BDA0003987937740000082
其中,
Figure BDA0003987937740000083
为特征项t在文本d中出现的频率,nt,d为特征项t在文本d中出现的次数,Nd为文本d中单词总数;
Figure BDA0003987937740000084
为特征项t的逆文档频率,N为文本总数,nt为文本集中包含特征项t的文本数.
Figure BDA0003987937740000085
为算法中的归一化因子。
计算文本间的余弦相似度,余弦相似度的计算公式为:
Figure BDA0003987937740000086
其中,xi和yi分别表示文本向量x和y在向量空间模型下某一维度的坐标。
使用K-means聚类算法对上述文本集进行文本聚类,使用卡方独立性检验方法计算聚类后各类别文本下关联度排名前十五的特征词,以筛选出协作机器人共融能力第二类评价指标,如附图3所示。卡方独立性检验方法的计算公式为:
Figure BDA0003987937740000087
其中,X2(t,Hf)为特征词t与类别Hm间的CHI值;Hm为聚类结果的第m类;N为文本总数;A为包含共融性能评价指标(特征词t)且属于类别Hm的文本记录数量;B为包含共融性能评价指标(特征词t)但不属于类别Hm的文本记录数量;C为不包含共融性能评价指标(特征词t)但属于类别Hm的文本记录数量;G为不包含共融性能评价指标(特征词t)且不属于类别Hm的文本记录数量。
合并协作机器人共融能力第一类和第二类评价指标体系,构建出协作机器人共融能力评价指标体系。
基于上述评价指标体系,结合协作机器人的实际应用与前沿探索,设计出五项协作机器人共融能力测试任务,具体步骤包括:
设计出协作机器人-协作机器人共融能力测试任务一,如附图4所示,测试任务所含评价指标:静态协作、松协调运动控制、自适应阻抗控制、静态任务分配、实时通讯、碰撞检测、实时避障与运动规划。
测试任务步骤:1:Robot1与Robot2自主进行静态任务分配,一个机器人夹住抽屉盒上侧的把手,另一个机器人夹住抽屉盒右侧的把手将内部盒子完全抽出。在此过程中,抽屉盒不得离开白色作业区域平面。2:Robot1与Robot2按直径由大到小的顺序(计为一次)从内部盒子中抓取小球,并将其放置在对应颜色的区域内,共完成3次。3:在Robot1与Robot2进行步骤2时,人将长方体、圆柱体和圆锥体障碍物随机放置在白色作业区域内,机器人应识别并及时停止作业,等待障碍物放置完毕且人到达安全区域后进行避障规划,再将小球全部放置完毕。
加分项(评分标准):完全抽出内部盒子加15分。抓取小球过程中,两机器人不发生碰撞加8分,机器人不碰撞障碍物加6分,不碰撞人加12分,碰撞到人但能及时停止加8分。抓取顺序正确,加2分。每抓取一个小球,加2分。每有一个小球放至对应颜色区域内,加1分。不同生产商(不同型号)平均完成时间在(0,12]分钟,总得分加12分。同一生产商不同型号平均完成时间在(0,10]分钟,总得分加10分。同一生产商同一型号平均完成时间在(0,8]分钟,总得分加8分。共3次完整作业,作业得分加上由平均完成时间产生的奖励得分,取二者之和的算术平均值作为总得分。若总得分超出100,应按满分100分计。
设计出协作机器人-协作机器人共融能力测试任务二,如附图5所示,测试任务所含评价指标:动态协作、紧协调运动控制、力/位混合控制、动态任务分配、实时通讯、碰撞避免、实时避障与运动规划。
测试任务步骤:1:Robot1与Robot2共同搬运长方体并放至1号区域内,且将3个长方体按高度由高到低的顺序堆放。2:在步骤1进行过程中,人将额外的长方体和圆柱体随机放置在四种不同颜色区域(四个边角)当中的一个(二者不能同时放在一个区域)。机器人在此过程中应及时停止,避免与人发生碰撞,并识别额外加入的长方体和圆柱体,等待长方体和圆柱体放置完毕且人到达安全区域后进行避障规划,继续完成步骤2。3:Robot1与Robot2共同搬运额外的长方体并放至1号区域内,无需进行堆放。4:Robot1与Robot2依次将作业区域内的四个圆柱体竖直放至3号区域内。5:Robot1与Robot2从上至下将1号区域内堆放的长方体搬运并放至2号区域内,再由二者中的一个识别并抓取与该长方体匹配的圆柱体,进行“轴孔装配”。注:下一组的长方体需堆放在上一组之上(即堆放)进行装配。6:Robot1与Robot2将额外的长方体搬运并放至2号区域内堆放的长方体上,抓取与该长方体匹配的圆柱体,进行“轴孔装配”。此时,额外的长方体应堆放至步骤5中的最高层。
加分项(评分标准):每成功搬运一个长方体加6分,完整堆放所有长方体加6分。每成功抓取并竖直放置一个圆柱体加6分。在人放置物体过程中,机器人不与另一机器人发生碰撞,加6分。机器人不与额外的长方体和圆柱体发生碰撞,加2分。机器人不与人发生碰撞,加8分;若与人发生碰撞但能及时停止,加6分。机器人成功搬运额外的长方体加4分,成功抓取额外的圆柱体加4分。每成功装配一次加4分。每成功装配一次加4分。不同生产商(不同型号)平均完成时间在(0,15]分钟,总得分加10分。同一生产商不同型号平均完成时间在(0,12]分钟,总得分加8分。同一生产商同一型号平均完成时间在(0,10]分钟,总得分加6分。共3次完整作业,作业得分加上由平均完成时间产生的奖励得分,取二者之和的算术平均值作为总得分。若总得分超出100,应按满分100分计。
设计出协作机器人-人共融能力测试任务一,如附图6所示,测试任务所含评价指标:非接触式人机交互、自主决策、任务规划与协调、运动规划、主动避碰、人体行为识别和人类意图理解。
测试任务步骤:1:机器人学习手势数据集和语音数据集。2:人做出不同手势进行示意,指定待抓取物体,机器人识别并处理手势,对指定物体进行抓取后保持静止,等待人下达语音指令。3:人下达语音指令,指定待抓取物体放置区域,机器人识别并处理语音指令,将步骤2中已抓取的物体放置在指定区域。在指定待抓取物体放置区域过程中,人会一次随机地指定一个区域与前几次相同,这时,机器人应在空间中画出半径r为10cm的圆轨迹,提示人更改物体放置区域,再进行步骤3。在机器人放置物体的过程中,人会两次随机地取走一个障碍物,机器人应实现主动避碰,保证人的安全。重复上述步骤,直至物体均被放置完毕。
加分项(评分标准):每成功识别一次手势指令并正确抓取一个物体,加2分。每成功识别一次语音指令并正确放置一个物体,加2分。机器人成功提示人更改放置区域,加6分。机器人不碰撞到人,加15分。机器人碰撞到人后能急停,不对人产生伤害,加9分。不碰撞到圆柱体、长方体和正方体障碍物,加10分。平均完成时间在(0,8]分钟,总得分加10分;在(8,10]分钟,总得分加6分;在(10,12]分钟,总得分加2分。平均完成时间超出12分钟,不加分。共3次完整作业,作业得分加上由完成时间产生的奖励得分,取二者之和的算术平均值作为总得分。若总得分超出100,应按满分100分计。
设计出协作机器人-人共融能力测试任务二,如附图7所示,测试任务所含评价指标:接触式人机交互、力/位混合控制、自适应阻抗控制、人机协作、模仿学习、任务规划与协调、运动规划和主动避碰。
测试任务步骤:1:螺栓和螺母分别散乱无序地放在区域1和3中,人从区域1中任选一个螺母,并将其拿至区域2的上空。此时,机器人利用视觉传感器进行识别与匹配,在区域3中抓取相应的螺栓,并在区域2的上空与人协作完成螺栓螺母装配。待装配完成,人清空作业区域内的物品。2:一个手机充电头和一个三线插头散乱无序地放在区域1中,一个插线板放在区域2中,三根USB数据线散乱无序地放在区域3中。人依次将手机充电头和三线插头安装在插线板上,再将三根USB数据线安装在相应位置。最后,依次将USB数据线、三线插头和手机充电头拔出,并放置原所在区域内。此时,机器人应观察并记录人的动作。机器人模仿学***面画出三种不同的轨迹。
加分项(评分标准):
子任务一中,共三对螺栓螺母,每成功装配一对螺栓螺母加5分。
子任务二中,每成功插拔一个手机充电头或三线插座,加4分;每成功插拔一根USB线,加2分。
子任务三中,成功将CPU安装在电脑主板上加16分,成功安装一根内存条加10分。
子任务四中,按照机器人实际画出轨迹与预设轨迹的差距,以
Figure BDA0003987937740000131
进行加分,三种不同轨迹最多可加45分。总完成时间在(0,30]分钟,总得分加10分;在(30,35],总得分加6分;在(35,40],总得分加2分。总完成时间超出40分钟,不加分。共1次完整作业,作业得分加上由完成时间产生的奖励得分,取二者之和的算术平均值作为总得分。若总得分超出100,应按满分100分计。
设计出协作机器人-环境共融能力测试任务,如附图9所示,测试任务所含评价指标:作业环境建模、多模态信息融合与处理、非结构化环境下运动规划、实时避障、碰撞避免、碰撞检测、力/位混合控制。控制方法:自适应阻抗控制和智能化控制二选一。机器人位姿估计方法:卡尔曼滤波算法和自适应互补滤波算法二选一。
测试任务步骤:1:机器人加装听觉传感器,学习语音数据集,以接收人下达的语音指令。2:机器人加装视觉传感器,学习三类物体的特征。3:人下达语音指令指出待抓取物体及其放置区域,机器人识别语音指令,并在四个隔层中寻找待抓取物体。4:机器人进行非结构化环境下运动规划,打开隔层抓取物体并放至指定区域。当隔层之前相互影响导致机器人无法顺利抓取时,机器人需根据实际情况调整隔层的相对位置直至顺利抓取物体。5:在步骤[4]进行时,人将圆柱体和圆锥体障碍物随机放置在黑色区域内,机器人应识别并及时停止作业,等待障碍物放置完毕且人进入安全区域后进行避障规划,再将物体放置完毕。6:依次循环,直至机器人将三类物体全部抓取出并放置在指定区域内。
加分项(评分标准):每成功识别一次语音指令,加0.8分。每成功打开隔层,加0.8分。每正确寻找到待抓取物体,加0.8分。每成功抓取一个物体,加2分。每成功放置一个物体,加2分。机器人不碰撞人,加16分;不碰撞圆柱体或圆锥体,加10分。机器人碰撞到人后能急停,不对人产生伤害,加10分。平均完成时间在(0,10]分钟,总得分加10分;在(10,12]分钟,总得分加6分;在(12,15]分钟,总得分加2分。平均完成时间超出15分钟,不加分。共3次完整作业,作业得分加上由完成时间产生的奖励得分,取二者之和的算术平均值作为总得分。若总得分超出100,应按满分100分计。
各项测试任务所含评价指标属于定性指标,且各加分项(评分标准)和测试任务评价指标间存在着相互依存与反馈的关系。因此,本发明使用模糊网络分析法对各测试任务进行综合评价,具体步骤包括:
根据对协作机器人共融能力综合评价的要求,设定评语集:
V={v1,v2,v3,v4,v5}={差,稍差,中等,良好,优秀}。
根据各测试任务的加分项,构建出各元素组,即一级评价指标:
U={U1,U2,U3,…,Uk,…,Un},n为元素组个数。
根据各元素组,构建出其内部的元素,即二级评价指标:
Figure BDA0003987937740000151
nk为元素组Uk内部元素的个数。
邀请m名专家对各元素(二级评价指标)进行单因素评价,建立模糊关系矩阵,即U到V的模糊关系矩阵R:
Figure BDA0003987937740000152
将各元素组中的元素作为准则,各元素组中的元素按照对上述元素准则进行重要性影响判断,按照下表所示的三角模糊数的标度进行两两比较。
Figure BDA0003987937740000153
然后由特征根法求出排序向量,以得到判断矩阵Wij。使用相同的方法,可以得到其他的模糊判断矩阵,将所有模糊判断矩阵进行组合,可得模糊超矩阵W。W整体不是列归一化的,故需要确定W内每一列块的相对权重,即将各元素组进行两两比较,判断出对当前元素组影响最大的元素组,得到该元素组对其他元素组的归一化排序向量,从而得到元素组间的相对权重矩阵A。
因此,可得模糊加权超矩阵W'=AW。
由此计算极限超矩阵
Figure BDA0003987937740000154
Figure BDA0003987937740000155
利用最大特征根法求得其在最大特征根为1时所对应的归一化特征向量,即各二级评价指标的权重向量C。
最后,由上述的权重向量C和矩阵R,选取乘与有界算子
Figure BDA0003987937740000156
进行模糊数学运算,可得综合评价结果P,即:P=C·R。
具体地,以协作机器人-环境共融能力测试任务的综合评价过程为例。
一级评价指标集合U={U1,U2,U3,U4,U5,U6,U7,U8}={识别语音指令,打开隔层,寻找到待抓取物体,抓取物体,放置物体,不碰撞人,不碰撞障碍物,碰撞到人后能急停不对人产生伤害}。二级评价指标集合分别为:U1={u11}={多模态信息融合与处理},U2={u21,u22,u23}={作业环境建模,非结构化环境下运动规划,力位混合控制},U3={u31,u32}={多模态信息融合与处理,非结构化环境下运动规划},U4={u41,u42,u43,u44}={力/位混合控制,自适应阻抗控制,智能化控制,物***姿估计},U5={u51,u52,u53}={作业环境建模,非结构化环境下运动规划,实时避障}。U6={u61,u62}={实时避障,碰撞避免}。U7={u71,u72,u73}={实时避障,碰撞避免,碰撞检测}。U8={u81,u82}={碰撞避免,碰撞检测}。各一级评价指标和二级评价指标(即各元素组和元素)的对应关系,如下表所示:
Figure BDA0003987937740000161
如下表所示,邀请20名机器人学领域内的专家填写调查问卷,对机器人-环境共融能力进行单因素评价。
Figure BDA0003987937740000171
因此,可得模糊关系矩阵R:
Figure BDA0003987937740000172
本发明选取了α=0,λ=1。α=0表示综合权重包含了各专家的全部决策权重信息,λ=1表示专家采用了最保守的态度。
例如:在元素组U2中,以元素u21为准则,该元素和其他元素u21,u22,u23按照对元素u21的重要性影响大小进行间接优势度比较,结果如下表所示:
Figure BDA0003987937740000173
由特征根法,计算得排序向量:
Figure BDA0003987937740000174
同理,分别以元素u22、u23为准则,可得排序向量:
Figure BDA0003987937740000175
Figure BDA0003987937740000176
将上述排序向量进行组合,可得模糊判断矩阵W21
Figure BDA0003987937740000181
同理可得其他模糊判断矩阵,对它们进行组合以得到模糊超矩阵W:
Figure BDA0003987937740000182
以某个一级评价指标为准则,对该一级评价指标与其他一级评价指标进行两两比较,以得到该一级评价指标对其他一级评价指标的归一化排序向量。例如:以U1为准则,U1,U2,…,U8按照其对U1的影响大小进行两两比较。第i个一级评价指标对第j个一级评价指标的影响权值记为aij,且
Figure BDA0003987937740000183
若无影响则为“0”,可得模糊成分权重矩阵A:
Figure BDA0003987937740000184
则模糊加权超矩阵W'=AW:
Figure BDA0003987937740000185
则极限超矩阵
Figure BDA0003987937740000191
各二级评价指标的权重向量为C。
最终,得到机器人-环境共融能力的综合评价结果P=C·R。
同时,将机器人-环境共融能力测试任务中的各一级评价指标的实际获得分数,乘以该一级评价指标下各二级评价指标所占权重,即可得各二级评价指标的实际获得分数。于是,机器人-环境共融能力的强弱不仅能以测试任务得分的方式进行比较,更能以具体的二级评价指标的得分进行比较。并且,二级评价指标的强弱也能通过分数直观地体现出来,明确在该测试任务的前提下是哪一项能力偏强或偏弱。
尽管方法已对本发明说明性的具体实施方式逐步进行了描述,以便于本技术领域的技术人员能够进行领会,但是本发明不仅限于具体实施方式的范围,本领域技术人员可以在权利要求的范围内做出各种变形或修改,只要各种变化只要在所附的权利要求限定和确定的本发明精神和范围内。

Claims (4)

1.协作机器人共融能力测试任务及其综合评价方法,其特征在于,包括步骤:
S1:使用德菲尔法遴选出协作机器人共融能力第一类评价指标中的基本参数评价指标;
S2:使用德菲尔法初选出机器人文献中的经典评价指标,计算各类指标下具体指标间的皮尔逊相关系数进行指标筛选,确定出灵活性性能指标x1类、基于影响系数的运动学性能指标x2类、基于影响系数的动力学性能指标x3类、全域性能指标x4类,具体步骤包括:
S21:采集LBR iiwa 14R820协作机器人在500种不同位形下的数据,利用Matlab进行指标数值计算;
S22:计算各类指标下具体指标间的皮尔逊相关系数rij
Figure FDA0003987937730000011
其中,Ii,k和Ij,k分别为Ii和Ij的第k个观测值,i=1,2,···,n,j=1,2,···,n,k=1,2,···m,rij为第i个和第j个评价指标之间的皮尔逊相关系数;
S23:设定临界值M为0.90,进行指标筛选以确定协作机器人共融能力第一类评价指标中的典型性能评价指标;
S3:计算筛选前后协作机器人共融能力第一类评价指标数据协方差矩阵的迹,具体步骤包括:
Figure FDA0003987937730000012
其中,S1和S2分别表示评价指标数据定量筛选前后的协方差矩阵,trS1和trS2分别表示S1和S2的迹;
S31:设定In0=90%,对协作机器人共融能力第一类评价指标体系进行合理性检验;若In≥In 0=90%,则通过合理性检验;
S4:通过基于K-means聚类算法的文本聚类过程,遴选出协作机器人共融能力第二类评价指标,具体步骤包括:
S41:构建出由中英文文献组成的协作机器人共融能力评价指标文本集;
S42:对上述协作机器人共融能力评价指标文本集进行预处理;
S43:使用几率比进行特征降维,几率比计算公式为:
Figure FDA0003987937730000021
其中,pos表示正例文本集合,neg表示反例文本集合;正例出现条件下,特征项t出现概率越大;反例出现条件下,特征项t出现概率越小;几率比越大,特征项t对正确分类作用越大;
S44:使用向量空间模型对上述文本集进行文本表示,并使用词频-逆文档频率数TF-IDF算法进行特征项赋权,其计算公式为:
Figure FDA0003987937730000022
其中,
Figure FDA0003987937730000023
为特征项t在文本d中出现的频率,nt,d为特征项t在文本d中出现的次数,Nd为文本d中单词总数;
Figure FDA0003987937730000024
为特征项t的逆文档频率,N为文本总数,nt为文本集中包含特征项t的文本数.
Figure FDA0003987937730000025
为算法中的归一化因子;
S44:计算文本间的余弦相似度,余弦相似度的计算公式为:
Figure FDA0003987937730000026
其中,xi和yi分别表示文本向量x和y在向量空间模型下某一维度的坐标;
S45:使用K-means聚类算法对文本集进行文本聚类,再使用卡方独立性检验方法计算聚类后各类别文本下关联度排名前十三的特征词,以筛选出协作机器人共融能力第二类评价指标,卡方独立性检验方法的计算公式为:
Figure FDA0003987937730000031
其中,X2(t,Hf)为特征词t与类别Hm间的CHI值;Hm为聚类结果的第m类;N为文本总数;A为包含共融性能评价指标且属于类别Hm的文本记录数量;B为包含共融性能评价指标但不属于类别Hm的文本记录数量;C为不包含共融性能评价指标但属于类别Hm的文本记录数量;G为不包含共融性能评价指标且不属于类别Hm的文本记录数量;
S5:合并协作机器人共融能力第一类和第二类评价指标,构建出协作机器人共融能力评价指标体系;
S6:基于上述评价指标体系,结合协作机器人的实际应用与前沿探索,设计出五项协作机器人共融能力测试任务,具体步骤包括:
S61:设计出协作机器人-协作机器人共融能力测试任务一,测试任务所含评价指标:静态协作、松协调运动控制、自适应阻抗控制、静态任务分配、实时通讯、碰撞检测、实时避障与运动规划;
S62:设计出协作机器人-协作机器人共融能力测试任务二,测试任务所含评价指标:动态协作、紧协调运动控制、力/位混合控制、动态任务分配、实时通讯、碰撞避免、实时避障与运动规划;
S63:设计出协作机器人-人共融能力测试任务一,测试任务所含评价指标:非接触式人机交互、自主决策、任务规划与协调、运动规划、主动避碰、人体行为识别和人类意图理解;
S64:设计出协作机器人-人共融能力测试任务二,测试任务所含评价指标:接触式人机交互、力/位混合控制、自适应阻抗控制、人机协作、模仿学习、任务规划与协调、运动规划和主动避碰;
S65:设计出协作机器人-环境共融能力测试任务,测试任务所含评价指标:作业环境建模、多模态信息融合与处理、非结构化环境下运动规划、实时避障、碰撞避免、碰撞检测、力/位混合控制;控制方法:自适应阻抗控制和智能化控制二选一;机器人位姿估计方法:卡尔曼滤波算法和自适应互补滤波算法二选一;S7:根据协作机器人共融能力测试任务下各加分项、测试任务评价指标之间的依存与反馈关系,提出模糊网络分析法对协作机器人共融能力测试任务进行综合评价。
2.根据权利要求1所述的协作机器人共融能力测试任务及其综合评价方法,其特征在于:提出了协作机器人共融能力评价指标体系构建方法,通过德菲尔法和皮尔逊相关系数方法遴选出协作机器人共融能力第一类评价指标,通过K-means算法的文本聚类过程,遴选出协作机器人共融能力第二类评价指标。
3.根据权利要求1所述的协作机器人共融能力测试任务及其综合评价方法,其特征在于:设计五项基于协作机器人的实际应用与前沿探索的协作机器人共融能力测试任务。
4.根据权利要求1所述的协作机器人共融能力测试任务及其综合评价方法,其特征在于:使用模糊网络分析综合评价方法,实现对协作机器人共融能力测试任务的综合评价。
CN202211571541.0A 2022-12-08 2022-12-08 协作机器人共融能力测试任务及其综合评价方法 Active CN115781764B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211571541.0A CN115781764B (zh) 2022-12-08 2022-12-08 协作机器人共融能力测试任务及其综合评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211571541.0A CN115781764B (zh) 2022-12-08 2022-12-08 协作机器人共融能力测试任务及其综合评价方法

Publications (2)

Publication Number Publication Date
CN115781764A true CN115781764A (zh) 2023-03-14
CN115781764B CN115781764B (zh) 2024-06-11

Family

ID=85419016

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211571541.0A Active CN115781764B (zh) 2022-12-08 2022-12-08 协作机器人共融能力测试任务及其综合评价方法

Country Status (1)

Country Link
CN (1) CN115781764B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107756417A (zh) * 2017-11-21 2018-03-06 北方民族大学 智能双臂安全协作人机共融机器人***
CN110561432A (zh) * 2019-08-30 2019-12-13 广东省智能制造研究所 一种基于人机共融的安全协作方法及装置
CN111230867A (zh) * 2020-01-16 2020-06-05 腾讯科技(深圳)有限公司 机器人运动控制方法、运动控制设备及机器人
US20200206920A1 (en) * 2018-12-31 2020-07-02 Kofax, Inc. Systems and methods for identifying processes for robotic automation and building models therefor
CN113821031A (zh) * 2021-09-13 2021-12-21 大连海事大学 一种无人船舶自主航行能力评估方法
CN114202240A (zh) * 2021-12-27 2022-03-18 杭州电子科技大学 一种可穿戴外骨骼机器人人机协作安全性评价***及方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107756417A (zh) * 2017-11-21 2018-03-06 北方民族大学 智能双臂安全协作人机共融机器人***
US20200206920A1 (en) * 2018-12-31 2020-07-02 Kofax, Inc. Systems and methods for identifying processes for robotic automation and building models therefor
CN110561432A (zh) * 2019-08-30 2019-12-13 广东省智能制造研究所 一种基于人机共融的安全协作方法及装置
CN111230867A (zh) * 2020-01-16 2020-06-05 腾讯科技(深圳)有限公司 机器人运动控制方法、运动控制设备及机器人
CN113821031A (zh) * 2021-09-13 2021-12-21 大连海事大学 一种无人船舶自主航行能力评估方法
CN114202240A (zh) * 2021-12-27 2022-03-18 杭州电子科技大学 一种可穿戴外骨骼机器人人机协作安全性评价***及方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
李峰;卫能;侯卫国;涂志健;: "搬运机器人性能模糊综合评价方案", 电子产品可靠性与环境试验, no. 2, 18 August 2020 (2020-08-18) *
赵京;杨聪;胡卫建;: "基于AHP-模糊综合评价法的轮履复合型搜索机器人性能评价及其软件开发", 北京工业大学学报, no. 06, 30 June 2016 (2016-06-30) *

Also Published As

Publication number Publication date
CN115781764B (zh) 2024-06-11

Similar Documents

Publication Publication Date Title
Nguyen et al. Detecting object affordances with convolutional neural networks
Yun et al. Grasping pose detection for loose stacked object based on convolutional neural network with multiple self-powered sensors information
Goyal et al. Rel3d: A minimally contrastive benchmark for grounding spatial relations in 3d
CN113034575A (zh) 一种模型构建方法、位姿估计方法及物体拣取装置
An et al. A neural network based retrainable framework for robust object recognition with application to mobile robotics
CN110363214A (zh) 一种基于gwa-svm的机器人装配的接触状态识别方法
Samigulina et al. Smart-system of distance learning of visually impaired people based on approaches of artificial intelligence
Tan et al. Grounding spatial relations in natural language by fuzzy representation for human-robot interaction
CN114187546B (zh) 组合性动作识别方法及***
CN115203846A (zh) 一种基于粒子群-麻雀算法的激光清洗装备人机界面布局优化方法
CN111259749A (zh) 一种基于双向lstm的复杂环境下实时人体姿势识别方法
CN115781764A (zh) 协作机器人共融能力测试任务及其综合评价方法
Moussa et al. An experimental approach to robotic grasping using a connectionist architecture and generic grasping functions
Young et al. Formalized task characterization for human-robot autonomy allocation
JP2023539340A (ja) データ処理及び計算のためのシステム及び方法
Kumar et al. Design and development of an automated robotic pick & stow system for an e-commerce warehouse
WO2024016635A1 (zh) 物品拣选方法及装置、计算机可读存储介质
Asaoka et al. Detection of object arrangement patterns using images for robot picking
CN106055244A (zh) 一种基于Kincet和语音的人机交互方法
Fichtl et al. Bootstrapping relational affordances of object pairs using transfer
Fichtl et al. Using relational histogram features and action labelled data to learn preconditions for means-end actions
Roesler Enhancing unsupervised natural language grounding through explicit teaching
Fukuda et al. Object recognition based on human description ontology for service robots
Chen et al. A new semantic-based tool detection method for robots
Bodenhagen et al. Learning to grasp unknown objects based on 3d edge information

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant