CN104199314B - 一种机器人智能仿真测试方法 - Google Patents

一种机器人智能仿真测试方法 Download PDF

Info

Publication number
CN104199314B
CN104199314B CN201410468357.2A CN201410468357A CN104199314B CN 104199314 B CN104199314 B CN 104199314B CN 201410468357 A CN201410468357 A CN 201410468357A CN 104199314 B CN104199314 B CN 104199314B
Authority
CN
China
Prior art keywords
emulator
robot
target
emulation
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410468357.2A
Other languages
English (en)
Other versions
CN104199314A (zh
Inventor
庄家煜
许世卫
李哲敏
王东杰
张超
陈威
李干琼
张玉梅
张永恩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Agricultural Information Institute of CAAS
Original Assignee
Agricultural Information Institute of CAAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agricultural Information Institute of CAAS filed Critical Agricultural Information Institute of CAAS
Priority to CN201410468357.2A priority Critical patent/CN104199314B/zh
Publication of CN104199314A publication Critical patent/CN104199314A/zh
Application granted granted Critical
Publication of CN104199314B publication Critical patent/CN104199314B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

本发明属于智能信息技术领域,具体涉及一种机器人智能仿真测试方法。本发明的方法采用视觉图像仿真器生成包含视觉背景和目标的仿真视觉图像;采用跟踪算法仿真器获取仿真视觉图像中的目标,并实时输出目标脱靶量;机器人仿真器根据目标脱靶量解算出机器人各关节的最优执行值以使机器人的视觉传感器对准目标,并实现实时跟踪功能;撤去视觉仿真器、跟踪算法仿真器和机器人仿真器中的一个或两个仿真器,并以相应的真实部件代替,以实物、仿真器相结合的方式完成视觉跟踪机器人的测试。本发明解决了现有技术难以满足大规模机器人测试要求的技术问题,取得了测试效率高、测试稳定性好、测试精度高的有益效果。

Description

一种机器人智能仿真测试方法
技术领域
本发明属于智能信息技术领域,具体涉及一种机器人智能仿真测试方法。
背景技术
随着科学技术信息化、智能化的发展,机器人技术得到了国内外学者的广泛关注,且呈现出规模越来越大、复杂度越来越高的发展态势。通过对机器人进行测试,能够发现设备中隐藏的问题和设计缺陷,是保障机器人质量和可靠性的重要手段。
传统的机器人测试手段主要采用人工实验测试的方式,存在测试效率低、测试稳定性差、测试精度低等缺点,难以满足大规模机器人的测试要求。\
发明内容
本发明需要解决的技术问题为:现有机器人测试***测试效率低、测试稳定性差、测试精度低,难以满足大规模机器人的测试要求。
本发明的技术方案如下所述:
一种机器人智能仿真测试方法,包括以下步骤:
步骤1:通过参数配置计算机初始化参数;
步骤2:将初始化后的参数传输至视觉图像仿真器;
步骤3:视觉图像仿真器接收初始化参数和机器人当前状态后生成包含视觉背景和目标的仿真视觉图像;
步骤4:跟踪算法仿真器接收仿真视觉图像后,对图像进行智能识别,获取仿真视觉图像中的目标,并实时输出目标脱靶量;
步骤5:机器人仿真器接收到目标脱靶量后,根据目标脱靶量解算出机器人各关节的最优执行值以使机器人的视觉传感器对准目标,并通过控制仿真模块实现实时跟踪功能;
步骤6:返回步骤2,记录跟踪算法仿真器输出的脱靶量直至其稳定在步骤1设置的***稳定阈值范围内;
步骤7:根据测试需求撤去上述视觉仿真器、跟踪算法仿真器和机器人仿真器中的一个或两个仿真器,并以相应的真实部件代替,之后重复步骤上述步骤1-5,并记录跟踪算法输出的脱靶量,以实物、仿真器相结合的方式完成视觉跟踪机器人的测试:若脱靶量小于等于***稳定阈值,则机器人合格;否则,机器人不合格。
作为优选方案:步骤3包括以下步骤:
步骤3.1:通过初始化的参数和视觉跟踪机器人状态,从已经获得的当前工作环境下的鱼眼全景图像中仿真出视觉传感器拍摄到的背景图像区域,并将该区域鱼眼图像转换成经典图像;
步骤3.2:对需要跟踪的目标进行建模仿真
步骤3.3:结合目标在图像背景中的实时位置将图像背景和仿真的目标图像进行图像融合,形成最终的仿真视觉图像。
作为优选方案:步骤3.2包括以下步骤:
步骤3.2.1:对目标外形、实时空间位置及反射系数进行三维建模;
步骤3.3.2:对三维建模后的目标表面划分计算网格;
步骤3.2.3:通过设置在机器人上的视觉传感器位置和姿态对目标表面每个网格节点进行投影,将网格节点投影到成像平面中;
步骤3.2.4:通过光源位置计算每个网格节点的光线反射角,结合目标反射系数并通过光线反射角大小仿真出该网格节点的图像亮度;
步骤3.2.5:对于不同的网格节点投影到成像平面上同一个像素点的情况,选择离相机位置最近的那个节点作为成像点,其他网格节点数据由于被遮挡不再进行仿真计算。
本发明的有益效果为:
(1)本发明的一种机器人智能仿真测试方法,将计算机技术、机械技术、信号处理技术、传感器技术等相关理论和技术相结合,能够显著提高测试效率、稳定性和精度,能够满足大规模视觉跟踪机器人的测试要求;
(2)本发明的一种机器人智能仿真测试方法,能够根据不同应用设计不同测试场景和流程,测试目的指向性强;
(3)本发明的一种机器人智能仿真测试方法,通过精确的定时与触发时钟,能够实现***同步;
(4)本发明的一种机器人智能仿真测试方法,实现了视觉跟踪机器人的智能检测与及时反馈,测试人员能够及时掌握***运作状况和存在问题,有效提高工作效率,可以广泛应用于农业、工业、交通、国防等领域。
附图说明
图1为本发明的一种机器人智能仿真测试方法设备布局图。
具体实施方式
下面结合附图和实施例对本发明的一种机器人智能仿真测试方法进行详细说明。
本发明涉及到的一种机器人的功能及工作原理:
该机器人为一种基于视觉的目标跟踪机器人,主要功能为:对设定的运动目标进行监视跟踪,并实时输出目标在视觉传感器(如相机)中的实时位置。该机器人主要包含了机器人初始参数配置模块、机器人执行机构(如机械臂)、目标检测跟踪模块和视觉传感器。工作原理:首先对机器人各参数进行初始化配置,视觉传感器拍摄到运动目标后通过目标检测跟踪模块从拍摄的图像中找出需跟踪目标并输出目标在图像中的实时位置(即脱靶量),机器人执行机构接收脱靶量后根据目标脱靶量解算出机器人各关节的最优执行值以使机器人的视觉传感器对准目标,并通过控制模块实现跟踪功能。
如图1所示,实现本实施例方法的机器人智能仿真测试***,包括参数配置计算机、视觉仿真器、跟踪算法仿真器和机器人仿真器:参数配置计算机于仿真测试初始时刻进行参数配置;视觉仿真器仿真出机器人拍摄到的视觉图像;跟踪算法仿真器对视觉仿真器输出的仿真视觉图像进行智能识别并输出目标在仿真图像中的位置,即目标脱靶量;机器人仿真器根据机器人当前状态和目标脱靶量规划机器人的跟踪任务,并将机器人仿真器执行跟踪任务后的新状态反馈至视觉仿真器。所述机器人的状态,是指机器人各关节的转动角度状态。
所述参数配置计算机主要对视觉仿真器的分辨率和视场角、机器人仿真器的PD控制参数和***稳定阈值等参数进行配置。
所述视觉仿真器包括视觉背景仿真模块和目标仿真模块:视觉背景仿真模块根据机器人当前状态及背景环境仿真出当前机器人的视觉传感器能够拍摄到的环境背景图像;目标仿真模块根据机器人当前状态和目标的形状、当前空间位置及光学特性仿真出目标图像;环境背景图像和目标图像采用现有技术相融合,形成仿真视觉图像。
所述跟踪算法仿真器采用卡尔曼滤波算法,能够对机动目标进行有效监视及跟踪。
所述机器人仿真器包括机器人运动仿真模块和控制仿真模块:机器人运动仿真模块用于模拟机器人机械机构的运动状态;控制仿真模块用于接收机器人目标状态并结合其当前状态后输出行进路线等控制策略。其中,机器人目标状态是指设置在机器人上的视觉传感器指向被跟踪目标时,机器人各机械关节的转动角度状态;机器人当前状态是指机器人当前时刻各关节的转动角度状态。
本实施例的一种机器人智能仿真测试方法,通过以下步骤进行测试:
步骤1:通过参数配置计算机初始化参数。
步骤2:将初始化后的参数传输至视觉图像仿真器。
步骤3:视觉图像仿真器接收初始化参数和机器人当前状态后生成包含视觉背景和目标的仿真视觉图像。
步骤3.1:通过初始化的参数和视觉跟踪机器人状态,从已经获得的当前工作环境下的鱼眼全景图像中仿真出视觉传感器拍摄到的背景图像区域,并将该区域鱼眼图像转换成经典图像。
步骤3.2:对需要跟踪的目标进行建模仿真
步骤3.2.1:对目标外形、实时空间位置及反射系数等参数进行三维建模;
步骤3.2.2:对三维建模后的目标表面划分计算网格;
步骤3.2.3:通过设置在机器人上的视觉传感器位置和姿态对目标表面每个网格节点进行投影,将网格节点投影到成像平面中;
步骤3.2.4:通过光源位置计算每个网格节点的光线反射角,结合目标反射系数并通过光线反射角大小仿真出该网格节点的图像亮度;
步骤3.2.5:对于不同的网格节点投影到成像平面上同一个像素点的情况,选择离相机位置最近的那个节点作为成像点,其他网格节点数据由于被遮挡不再进行仿真计算。
步骤3.3:结合目标在图像背景中的实时位置将图像背景和仿真的目标图像进行图像融合,形成最终的仿真视觉图像。
步骤4:跟踪算法仿真器接收仿真视觉图像后,对图像进行智能识别,获取仿真视觉图像中的目标,并实时输出目标脱靶量。
步骤5:机器人仿真器接收到目标脱靶量后,根据目标脱靶量解算出机器人各关节的最优执行值以使机器人的视觉传感器对准目标,并通过控制仿真模块实现实时跟踪功能。
步骤6:返回步骤2,记录跟踪算法仿真器输出的脱靶量直至其稳定在步骤1设置的***稳定阈值范围内;
步骤7:根据测试需求撤去上述视觉仿真器、跟踪算法仿真器和机器人仿真器中的一个或两个仿真器,并以相应的真实部件代替,之后重复步骤上述步骤1-5,并记录跟踪算法输出的脱靶量,以半实物半仿真的方式完成视觉跟踪机器人的测试:若脱靶量小于等于***稳定阈值,则机器人合格;否则,机器人不合格。
以上具体实施例仅用于举例说明本发明的结构和流程,本领域技术人员在本发明的构思下可以做出多种变形和变化,这些变形和变化均包括在本发明的保护范围之内。

Claims (1)

1.一种机器人智能仿真测试方法,其特征在于:包括以下步骤:
步骤1:通过参数配置计算机初始化参数;
步骤2:将初始化后的参数传输至视觉图像仿真器;
步骤3:视觉图像仿真器接收初始化参数和机器人当前状态后生成包含视觉背景和目标的仿真视觉图像;
步骤4:跟踪算法仿真器接收仿真视觉图像后,对图像进行智能识别,获取仿真视觉图像中的目标,并实时输出目标脱靶量;
步骤5:机器人仿真器接收到目标脱靶量后,根据目标脱靶量解算出机器人各关节的最优执行值以使机器人的视觉传感器对准目标,并通过控制仿真模块实现实时跟踪功能;
步骤6:返回步骤2,记录跟踪算法仿真器输出的脱靶量直至其稳定在步骤1设置的***稳定阈值范围内;
步骤7:根据测试需求撤去上述视觉仿真器、跟踪算法仿真器和机器人仿真器中的一个或两个仿真器,并以相应的真实部件代替,之后重复步骤上述步骤1-5,并记录跟踪算法输出的脱靶量,以实物、仿真器相结合的方式完成视觉跟踪机器人的测试:若脱靶量小于等于***稳定阈值,则机器人合格;否则,机器人不合格;
步骤3包括以下步骤:
步骤3.1:通过初始化的参数和视觉跟踪机器人状态,从已经获得的当前工作环境下的鱼眼全景图像中仿真出视觉传感器拍摄到的背景图像区域,并将该区域鱼眼图像转换成经典图像;
步骤3.2:对需要跟踪的目标进行建模仿真
步骤3.3:结合目标在图像背景中的实时位置将图像背景和仿真的目标图像进行图像融合,形成最终的仿真视觉图像;
步骤3.2包括以下步骤:
步骤3.2.1:对目标外形、实时空间位置及反射系数进行三维建模;
步骤3.3.2:对三维建模后的目标表面划分计算网格;
步骤3.2.3:通过设置在机器人上的视觉传感器位置和姿态对目标表面每个网格节点进行投影,将网格节点投影到成像平面中;
步骤3.2.4:通过光源位置计算每个网格节点的光线反射角,结合目标反射系数并通过光线反射角大小仿真出该网格节点的图像亮度;
步骤3.2.5:对于不同的网格节点投影到成像平面上同一个像素点的情况,选择离相机位置最近的那个节点作为成像点,其他网格节点数据由于被遮挡不再进行仿真计算。
CN201410468357.2A 2014-09-15 2014-09-15 一种机器人智能仿真测试方法 Active CN104199314B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410468357.2A CN104199314B (zh) 2014-09-15 2014-09-15 一种机器人智能仿真测试方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410468357.2A CN104199314B (zh) 2014-09-15 2014-09-15 一种机器人智能仿真测试方法

Publications (2)

Publication Number Publication Date
CN104199314A CN104199314A (zh) 2014-12-10
CN104199314B true CN104199314B (zh) 2016-08-31

Family

ID=52084615

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410468357.2A Active CN104199314B (zh) 2014-09-15 2014-09-15 一种机器人智能仿真测试方法

Country Status (1)

Country Link
CN (1) CN104199314B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109709823A (zh) * 2018-12-26 2019-05-03 中国北方车辆研究所 基于模型的信息集成测试方法
CN110262283B (zh) * 2019-06-11 2022-08-23 远形时空科技(北京)有限公司 一种多场景的视觉机器人仿真平台及方法
CN112199299B (zh) * 2020-07-13 2022-05-17 支付宝(杭州)信息技术有限公司 一种生物识别设备的测试方法、装置、设备及***

Also Published As

Publication number Publication date
CN104199314A (zh) 2014-12-10

Similar Documents

Publication Publication Date Title
Tremblay et al. Deep object pose estimation for semantic robotic grasping of household objects
CN108369643B (zh) 用于3d手部骨架跟踪的方法和***
CN104199313B (zh) 一种机器人智能仿真测试***
Teuliere et al. A dense and direct approach to visual servoing using depth maps
CN103235545B (zh) 一种光电跟踪***的仿真测试方法和装置
Gao et al. Vector: A versatile event-centric benchmark for multi-sensor slam
CN105373011B (zh) 检测光电跟踪设备的实时仿真***和计算机
CN112925223A (zh) 基于视觉传感网络的无人机三维跟踪虚拟测试仿真***
CN107066975B (zh) 基于深度传感器的视频识别与跟踪***及其方法
CN110062916A (zh) 用于模拟可移动平台的操作的视觉模拟***
CN104199314B (zh) 一种机器人智能仿真测试方法
CN109213202A (zh) 基于光学伺服的货物摆放方法、装置、设备和存储介质
CN210361314U (zh) 一种基于增强现实技术的机器人示教装置
CN110787433A (zh) 一种用于高尔夫模拟器的高尔夫球感测***
Ning Design and research of motion video image analysis system in sports training
Kohtala et al. Leveraging synthetic data from cad models for training object detection models–a vr industry application case
CN114139370A (zh) 一种光学引擎和电磁成像双模动目标同步仿真方法和***
Cai et al. Dynamic illumination optical flow computing for sensing multiple mobile robots from a drone
Heindl et al. ReconstructMe SDK: a C API for Real-time 3D Scanning
Perez et al. Exploring 3-d reconstruction techniques: A benchmarking tool for underwater robotics
Zhong et al. Reconstruction and Simulation of Elastic Objects with Spring-Mass 3D Gaussians
KR101628174B1 (ko) 열원내장 이동객체와 주변 간의 상호 열교환 효과를 반영한 합성적외선영상 생성방법
Xue et al. Event-based non-rigid reconstruction from contours
CN102226691A (zh) 多平面镜反折射***的平面镜夹角测量方法
Rocca et al. Humaface: Human to machine facial animation

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant