CN115131407A - 面向数字仿真环境的机器人目标跟踪方法、装置和设备 - Google Patents

面向数字仿真环境的机器人目标跟踪方法、装置和设备 Download PDF

Info

Publication number
CN115131407A
CN115131407A CN202211060146.6A CN202211060146A CN115131407A CN 115131407 A CN115131407 A CN 115131407A CN 202211060146 A CN202211060146 A CN 202211060146A CN 115131407 A CN115131407 A CN 115131407A
Authority
CN
China
Prior art keywords
target
robot
network
inputting
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211060146.6A
Other languages
English (en)
Other versions
CN115131407B (zh
Inventor
罗鑫权
蒿敬波
肖湘江
侯健伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan Chaonengrobot Technology Co ltd
Original Assignee
Hunan Chaonengrobot Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan Chaonengrobot Technology Co ltd filed Critical Hunan Chaonengrobot Technology Co ltd
Priority to CN202211060146.6A priority Critical patent/CN115131407B/zh
Publication of CN115131407A publication Critical patent/CN115131407A/zh
Application granted granted Critical
Publication of CN115131407B publication Critical patent/CN115131407B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optics & Photonics (AREA)
  • Image Analysis (AREA)

Abstract

本申请涉及目标跟踪技术领域的一种面向数字仿真环境的机器人目标跟踪方法、装置和设备。所述方法在数字仿真环境中采用神经网络通过在每帧图像生成的目标映射执行检测,并提供特征比对功能,结合先前帧的目标检测结果来估计当前帧的目标运动情况,对丢失的目标具备记忆找回能力,该方法简单、便捷、在线,同时能达到实时性。本方法在数字仿真环境中模拟机器人对其各自视野内的物体的识别,进而判断出背景、敌我,并实施对指定目标的追踪。场地、硬件、软件、通讯、算法研发和最终功能的实现验证都可以在数字仿真环境中实现,节省了很多开发团队很多冗余操作,可以有效快速的实现算法验证,提升项目的进度。

Description

面向数字仿真环境的机器人目标跟踪方法、装置和设备
技术领域
本申请涉及目标跟踪技术领域,特别是涉及一种面向数字仿真环境的机器人目标跟踪方法、装置和设备。
背景技术
在智能***的研发过程中对于一些要进行大量实验和测试的项目,往往需要先在真实的环境中进行设备的搭建,对真实环境进行采样,再对采样数据进行治理,进行大量实验验证算法的可行性和鲁棒性。现实过程复杂度高且繁琐,例如场地的清理、设备的装配、环境的配置、参数的调整等,重复性的体力劳动耗费的时间比较长。虚拟实验技术应用越来越受到人们的重视,国内的许多高校根据自身科研和教学需求建立了一些虚拟仿真试验***。这些***大多功能单一,只是某个环节的片段的数据的模拟,没有对于一整套项目的验证实施的方案。
计算视觉是计算机科学领域一个非常活跃的研究方向,在现实生活的各个领域中都展现出了广泛的应用。而计算机视觉算法的网络训练通常需要大量的图片数据做支撑,一般要到真实的环境中采样数天,才能做到有效的涵盖大部分的情况,数据的多少直接决定了模型训练的测试效果和泛化能力。所以数据的获取和筛选是算法成型的必要条件。如果只对整个项目中的个别对象做仿真建模,会造成项目数据的不连贯性,算法功能的测试效果也不会容易稳定。
目前目标实时跟踪技术依旧面临着巨大的挑战。目标跟踪是一个持续的过程,在应用环境中状态复杂多变,很容易出现跟丢原目标或跟踪目标不准确的情况。
发明内容
基于此,有必要针对上述技术问题,提供一种面向数字仿真环境的机器人目标跟踪方法、装置和设备。
一种面向数字仿真环境的机器人目标跟踪方法,所述方法包括:
获取当前数字仿真环境中仿真机器人上单目相机捕获的连续多帧图片;仿真机器人装配的单目相机与真实机器人装配的单目相机的视野及编码参数均相同;数字仿真环境是根据真实环境以及真实机器人参数按照1:1的比例仿真得到的。
将当前帧图片进行预处理后的预处理结果输入到目标检测网络中,得到目标物体及目标物***置坐标偏移量;所述目标检测网络用于采用改进的残差结构网络对所述预处理结果进行特征提取,然后对提取的不同层次的特征进行融合,并根据融合后的特征进行预测,得到目标物体及目标物***置坐标偏移量。
将所述目标物体输入到目标匹配网络中进行特征匹配,得到匹配物体的ID和类别;所述目标匹配网络用于采用Resnet结构的网络提取所述目标物体的特征,并采用Memo单元对提取的特征进行匹配分类,得到匹配物体的ID和类别。
当匹配物体与当前被跟踪物体的类别和ID相符时,则将匹配物体的目标框的坐标与激光雷达测量的角速度、线速度以及距离信息进行数据融合换算,得到当前被跟踪物体的ID、位置和速度。
将当前被跟踪物体的ID、位置和速度传输到数字仿真环境的控制端,在数字仿真环境的控制端生成控制数字仿真环境的行为控制指令。
根据所述行为控制指令驱动当前仿真机器人进行相应的动作行为,实现在数字仿真环境中当前仿真机器人对跟踪对象的追踪。
一种面向数字仿真环境的机器人目标跟踪装置,所述装置包括:
图片数据获取模块,用于获取当前数字仿真环境中仿真机器人上单目相机捕获的连续多帧图片;仿真机器人装配的单目相机与真实机器人装配的单目相机的视野及编码参数均相同;数字仿真环境是根据真实环境以及真实机器人参数按照1:1的比例仿真得到的。
跟踪目标的信息确定模块,用于将当前帧图片进行预处理后的预处理结果输入到目标检测网络中,得到目标物体及目标物***置坐标偏移量;所述目标检测网络用于采用改进的残差结构网络对所述预处理结果进行特征提取,然后对提取的不同层次的特征进行融合,并根据融合后的特征进行预测,得到目标物体及目标物***置坐标偏移量;将所述目标物体输入到目标匹配网络中进行特征匹配,得到匹配物体的ID和类别;所述目标匹配网络用于采用Resnet结构的网络提取所述目标物体的特征,并采用Memo单元对提取的特征进行匹配分类,得到匹配物体的ID和类别。
目标跟踪模块,用于当匹配物体与当前被跟踪物体的类别和ID相符时,则将匹配物体的目标框的坐标与激光雷达测量的角速度、线速度以及距离信息进行数据融合换算,得到当前被跟踪物体的ID、位置和速度;将当前被跟踪物体的ID、位置和速度传输到数字仿真环境的控制端,在数字仿真环境的控制端生成控制数字仿真环境的行为控制指令;根据所述行为控制指令驱动当前仿真机器人进行相应的动作行为,实现在数字仿真环境中当前仿真机器人对跟踪对象的追踪。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述方法的步骤。
上述面向数字仿真环境的机器人目标跟踪方法、装置和设备,所述方法在数字仿真环境中采用神经网络通过在每帧图像生成的目标映射执行检测并提供特征比对功能,结合先前帧的目标检测结果来估计当前帧的目标运动情况,对丢失的目标具备记忆找回能力。它简单、便捷、在线,同时能达到实时性。本方法在数字仿真环境中模拟机器人对其各自视野内物体的识别,进而判断出背景、敌我,并实施对指定目标的追踪。场地、硬件、软件、通讯、算法研发和最终功能的实现验证都可以在数字仿真环境中实现。节省了很多开发团队很多冗余操作,可以有效快速的实现算法验证,提升项目的进度。
附图说明
图1为一个实施例中面向数字仿真环境的机器人目标跟踪方法的流程示意图;
图2为另一个实施例中目标跟踪网络的结构图;
图3为另一个实施例中网络核心模块结构,其中(a)为route模块,(b)为route*X模块,(c)为CBCL模块;
图4为一个实施例中数字仿真环境建模步骤的流程示意图;
图5为为另一个实施例中机器人的外形示意图,其中(a)为机器人侧面,(b)为机器人正面;
图6为一个实施例中模拟单目相机投影的俯视图示意图;
图7为一个实施例中面向数字仿真环境的机器人目标跟踪装置的结构框图;
图8为一个实施例中设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,如图1所示,提供了一种面向数字仿真环境的机器人目标跟踪方法,该方法包括以下步骤:
步骤100:获取当前数字仿真环境中仿真机器人上单目相机捕获的连续多帧图片。仿真机器人装配的单目相机与真实机器人装配的单目相机的视野及编码参数均相同;数字仿真环境是根据真实环境以及真实机器人参数按照1:1的比例仿真得到的。
具体的,在数字仿真环境中模拟单目相机采样分辨率640*360,视角范围120°(可视角度可自定义调节),支持视觉采样实时存储,输入网络的图片也源于此。
模拟实现场景对现实中存在的足球场进行拍摄用于建模还原。面积106m*109m,包括绿菌地、球门、围栏、跑道、边界线等细节。
在数字仿真环境中共有10只仿真机器人,分为红蓝两队,每只仿真机器人都有唯一的ID,通过Unity程序可随意切仿真换机器人的主动视野,根据当前仿真机器人捕获视觉信息来判断别的其他仿真机器人的位置和ID号。
本发明中数据来源都是来自于真实的场景包括项目算法实施中用到的相关设备和参数都是有真实物体作为事实依据的。在数据采样方面也是对真实场地和环境的1:1的模拟获得,所有的配置和参数和研发中所需要的设备都可以在数字仿真环境中配置添加。并且可以数字仿真环境与真实环境中的信息通讯,从采样到算法的实现及调试和算法验证迭代都可以在虚拟环境中实现,解决了研发,测试环境重复迁移的复杂性,提升了研发效率和产品功能落地的稳定性。
步骤102:将当前帧图片进行预处理后的预处理结果输入到目标检测网络中,得到目标物体及目标物***置坐标偏移量;目标检测网络用于采用改进的残差结构网络对预处理结果进行特征提取,然后对提取的不同层次的特征进行融合,并根据融合后的特征进行预测,得到目标物体及目标物***置坐标偏移量。
具体的,机器人目标跟踪网络由目标检测网络和目标匹配网络两部分组成。机器人目标跟踪网络的总网络结构图如图2所示。目标检测网络主要用于对输入的当前帧图片中的目标物体与背景进行分离检测;目标匹配网络:主要用于对目标检测网络检测到的物体进行特征匹配。
目标检测网络包括:特征提取模块,特征融合模块以及预测模块。特征提取模块用于采用改进的残差网络结构对预处理结果进行特征提取,得到多层次特征;特征融合网络用于采用上采样和拼接的方式对多层次特征进行融合,得到融合特征;预测网络用于对融合特征进行分类预测,得到目标物体及目标物***置坐标偏移量。
以数字仿真环境来模拟现实落地应用的设备和环境的一套***装置,并在数字仿真环境中实现算法的研发和测试的有效性。
步骤104:将目标物体输入到目标匹配网络中进行特征匹配,得到匹配物体的ID和类别;目标匹配网络用于采用Resnet结构的网络提取目标物体的特征,并采用Memo单元对提取的特征进行匹配分类,得到匹配物体的ID和类别。
具体的,匹配物体是被跟踪的目标物体。
目标匹配网络的结构如图2中所示,核心模块结构如图3所示,其中(a)为route模块,(b)为route*X模块,(c)为CBCL模块。
Memo单元借鉴残差网络结构将短连接部分用全局平均池化层、1维卷积和Softmax激活函数代替,让网络能注意到差别特征更好的用于特征的编码,提高特征匹配的准确率。Memo单元的主支路采用卷积模块对目标检测网络输出的特征进行特征提取,另外一个有全局平均池化层、1维卷积层和Softmax激活函数组成的支路采用全局平均池化层将目标检测网络输出的特征映射压缩为1*1*C的特征,然后采用1维卷积层进行卷积,并将卷积的结果采用softmax函数激活得到0-1值,最后将0-1值乘以主支路提取的特征,相当于在主支路输出的特征的对应通道上带有一定的注意力。
步骤106:当匹配物体与当前被跟踪物体的类别和ID相符时,则将匹配物体的目标框的坐标与激光雷达测量的角速度、线速度以及距离信息进行数据融合换算,得到当前被跟踪物体的ID、位置和速度。
具体的,融合当前仿真机器人捕获的视觉信息经过网络模型处理后得到的其他仿真机器人的位置、ID号以及和激光雷达获取的信息,得到被跟踪物体的ID、位置和速度信息。
目标框的坐标的确定方法:当前帧图片经过目标检测网络处理后得到目标框的偏移量:(offset_cx,offset_cy,offset_bbox_w,offset_bbox_h),其中:offset_cx、offset_cy代表目标框中心点的偏移量,offset_bbox_w、offset_bbox_h代表目标框宽高的偏移量;根据偏移量和当前帧图片的真实宽高换算得到目标框的左上右下坐标点位置。
步骤108:将当前被跟踪物体的ID、位置和速度传输到数字仿真环境的控制端,在数字仿真环境的控制端生成控制数字仿真环境的行为控制指令。
步骤110:根据行为控制指令驱动当前仿真机器人进行相应的动作行为,实现在数字仿真环境中当前仿真机器人对跟踪对象的追踪。
上述面向数字仿真环境的机器人目标跟踪方法中,所述方法在数字仿真环境中采用神经网络通过在每帧图像生成的目标映射执行检测,并提供特征比对功能,结合先前帧的目标检测结果来估计当前帧的目标运动情况,对丢失的目标具备记忆找回能力,该方法简单、便捷、在线,同时能达到实时性。本方法在数字仿真环境中模拟机器人对其各自视野内的物体的识别,进而判断出背景、敌我,并实施对指定目标的追踪。场地、硬件、软件、通讯、算法研发和最终功能的实现验证都可以在数字仿真环境中实现。节省了很多开发团队很多冗余操作,可以有效快速的实现算法验证,提升项目的进度。
在其中一个实施例中,如图4所示,步骤100前还包括如下步骤:
步骤400:获取机器人、场地、障碍物的实际参数。
机器人配置有激光雷达;场地的实际参数包括:场地面积、场地内的细节特征。
具体的,机器人参考绝影mini-lite版的四足机器人,站立尺寸700mm*500mm*360mm,最大速度3.4m/s(峰值速度>4m/s),带激光雷达。机器人的外形图5所示,其中(a)为机器人侧面,(b)为机器人正面。
足球场面积106m*109m,包括绿菌地、球门、围栏、跑道、边界线等细节。模拟实现场景对现实中存在的足球场进行拍摄用于建模还原。
障碍物可以为:水马体180mm*800mm*1480mm*360mm、防撞桶700mm*400mm以及雪糕桶400mm*700mm等。
步骤402:根据实际参数对机器人、场地、障碍物进行1:1建模;仿真机器人配置有模拟激光雷达和模拟单目相机;模拟激光雷达用于测量当前仿真机器人到被跟踪物体之间的距离;模拟单目相机用于实时拍摄定位到的机器人的视野范围,并将捕获到的视图传输到控制端;
具体的,在3DUnity中按照获取的机器人、场地、障碍物的参数,对机器人、场地、障碍物进行1:1建模。
步骤404:将多个仿真机器人分为两组,并进行标识,将障碍物的属性设置为可在场地内任意位置随意添加,并将场地、所有仿真机器人以及相应位置添加的障碍物的模型进行融合渲染,得到数字仿真环境的测试场景;
具体的,仿真机器人共10只,分为两队,红队5只编号为1-5,设定5种颜色特征,蓝队5只编号为6-10,设定为5种颜色特征,每只仿真机器人腿部颜色特征都为唯一颜色。
障碍物设定为可以在足球场环境内任意位置随意添加。
将足球场地、10只机器人、及相应位置添加的障碍物Unity模型进行融合渲染出整体的研究测试场景。
步骤406:给每一个仿真机器人设置配置文件,配置文件包括预先编写好的运动轨迹。
具体的,为每一只仿真机器人设置配置文件,在3DUnity中用C#程序监听线程,订阅实时数据消息,让四足机器人可以按预先编写好的运动轨迹完成动画动态渲染。
步骤408:将模拟单目相机捕获的视图、模拟激光雷达捕获的相关距离信息和每只机器人的速度信息在控制端进行整合,并将得到的整合信息传输到对应的接口;整合信息包括:ID、时间戳、图像信息、线速度、角速度、及仿真机器人的姿态信息。
具体的,在数字仿真环境中模拟激光雷达功能,激光雷达拥有100 米的测量距离,2cm 的精度,垂直 30 度(±15 度),32 万点每秒的实时出点数(设置可自定义调节)。
在数字仿真环境中建模的激光雷达和单目相机并不是一个简单的装饰配置,而是和现实环境中的实物一样拥有数据捕获功能,模拟激光雷达可以进行测距,模拟单目相机能够实时拍摄定位到的机器人的视野范围,并由C#程序在Unity内部将捕捉到的虚拟环境下的实时数据进行传输。
模拟单目相机捕获的视图和激光雷达捕获的相关距离信息以及每只机器人的速度信息由Unity端整合,包括ID、时间戳、图像信息、线速度、角速度、及机器人的姿态信息等通过TCP协议以字节码的形式进行传输到需要的接口。
将之前获取的信息整合解码通过字节段选择相应的数据信息接收。如视觉侦测中只需要用到图片,就只要解码出当前ID的机器人视觉范围内的图片数组传输到网络模型接口。
为了让项目开发者能有更多的精力放在产品功能的完善和算法的研发上,使项目相关的算法可行性分析和实现结果验证能在虚拟环境中进行,遵循数字仿真的概念,让处在Unity 3D虚拟环境中的仿真机器人,通过虚拟视觉实现对可视范围内的多个机器人进行实时跟踪,可以用于数字仿真环境中目标跟踪相关的数据采样和跟踪算法研发测试评估。
在其中一个实施例中,目标检测网络包括:特征提取网络、特征融合网络和预测网络;特征提取网络是改进的残差网络,包括:多个CBCL模块,多个残差模块;CBCL模块由依次连接的1*1卷积层、批标准化层、3*3卷积层以及Leakyrelu激活函数组成;残差模块包括1个CBCL模块和若干个残差单元,残差单元由两个CBCL模块和一个加和模块组成;特征融合网络包括上采样层和拼接模块;预测网络包括1个CBCL模块;步骤102包括:将当前帧图片进行处理成416*416*3大小的张量,得到预处理结果;将预处理结果输入到目标检测网络的特征提取网络的第一个CBCL模块中进行卷积特征提取,将得到的卷积体征输入到第一个残差模块中,得到第一层次特征;将第一层次特征输入到特征提取网络的第二个残差模块中,得到第二层次特征;将第二层次特征输入到特征提取网络的第三个残差模块中,得到第三层次特征;将第三层次特征输入到特征提取网络的第四个残差模块中,得到第四层次特征;第四层次特征输入到特征提取网络的第二个CBCL模块中,并将得到的特征输入到特征提取网络的第三个CBCL模块中,并对得到的特征进行下采样,将下采样结果输入到特征提取网络的第四个CBCL模块中,将第四个CBCL模块输出的特征输入到特征提取网络的第五个CBCL模块中,得到第五层次特征;将第三层次特征、第四层次特征以及第五层次特征输入到特征融合网络中,经过上采样层对第五层次特征进行上采样,将得到的上采样结果与第四层次特征进行拼接,再经过上采样层对得到的拼接结果进行上采样,并将得到的上采样结果与第三层次特征进行拼接,得到融合特征;将融合特征和第五层次特征输入到预测网络中,经过CBCL模块对融合特征进行卷积处理,并将得到的卷积处理结果和第五层次特征进行加和融合,得到目标物体及目标物***置坐标偏移量。
具体的,下采样层的原理为:先通过一个标准卷积模块将输入通道减半,然后分别做矩阵窗口大小(kernel-size)为3、7、9的全局平均池化(对于不同的核大小,padding是自适应的),对三次最大池化的结果与未进行池化操作的数据进行拼接,最终拼接后通道数是原来的2倍。
上采样层的原理为:先将通道数减小再扩大(默认减小到一半),具体做法是先进行1*1卷积将通道数减小一半,再通插值法将宽高扩展到相同的形状进行拼接。
输入416*416 的图片输出为5维的向量,其中1个对应与背景分离的物体,另外4个代表检测到物体的目标框的坐标偏移量。
在其中一个实施例中,目标匹配网络包括匹配特征提取网络和Memo单元;匹配特征提取网络是Resnet50网络;步骤104包括:将目标物体输入到匹配特征提取网络中,得到目标物体特征;将目标物体特征输入到Memo单元中进行特征匹配,得到匹配物体的ID和类别。
在其中一个实施例中,Memo单元包括2个CBCL模块、2个卷积层、1全局平均池化层、以及Softmax函数;步骤:将目标物体特征输入到Memo单元中进行特征匹配,得到匹配物体的ID和类别,包括:将目标物体特征输入到Memo单元的第一个CBCL模块中,将得到结果输入到Memo单元的第二个CBCL模块中,并将得到的结果输入到Memo单元的第一个卷积层中,得到第一特征;将目标物体特征输入到Memo单元的全局平均池化层中,将得到池化结果输入到Memo单元的第二个卷积层中,并将得到的卷积结果采用Softmax函数激活,得到输入到Memo单元的第一个卷积层中,得到第二特征;将第一特征和第二特征乘积融合后,得到匹配物体的ID和类别。
具体的,输入检测到的物体得到128维的特征编码用于机器人ID匹配。
在其中一个实施例中,目标框的坐标包括目标框的左上角和右下角的坐标信息,表示为
Figure 754956DEST_PATH_IMAGE001
,其中
Figure 953635DEST_PATH_IMAGE002
为目标框的左上角的像素坐标,
Figure 435432DEST_PATH_IMAGE003
为目标框的右下角的像素坐标。步骤108包括:当匹配物体与当前被跟踪物体的类别和ID相符时:根据匹配物体的ID将当前被跟踪物体在模拟单目相机成像平面上所成的像与目标框对应;根据模拟单目相机拍摄图片的像素规格和相机感光区域水平方向长度,确定水平方向每个像素的物理长度;根据水平方向每个像素的物理长度、当前被跟踪物体对应的目标框在相机成像平面上水平方向的坐标
Figure 724462DEST_PATH_IMAGE004
Figure 811367DEST_PATH_IMAGE005
,确定
Figure 285073DEST_PATH_IMAGE006
Figure 926270DEST_PATH_IMAGE007
的长度,其中
Figure 753412DEST_PATH_IMAGE008
为过相机所在的点O的直线与相机成像平面上水平方向的垂直相交的点;根据
Figure 757140DEST_PATH_IMAGE009
Figure 277114DEST_PATH_IMAGE010
的长度以及模拟单目相机的焦距,确定
Figure 733503DEST_PATH_IMAGE011
Figure 364336DEST_PATH_IMAGE012
的角度值;根据
Figure 956991DEST_PATH_IMAGE013
Figure 647867DEST_PATH_IMAGE014
的角度值确定当前被跟踪物体的目标框在相机成像平面上水平方向的坐标
Figure 794814DEST_PATH_IMAGE015
Figure 353972DEST_PATH_IMAGE016
与相机所在的点O所成
Figure 942079DEST_PATH_IMAGE017
的值;根据
Figure 928490DEST_PATH_IMAGE018
的值和每个激光点相对于正前方的角度,确定
Figure 966328DEST_PATH_IMAGE019
范围内的激光点,计算激光点的距离,得到每个目标框中的机器人对应的距离;根据距离和
Figure 63597DEST_PATH_IMAGE020
的值确定当前被跟踪物体的位置。
具体的,网络模型检测得到的数据和模拟激光雷达的数据融合计算:
S1:激光雷达根据角速度、线速度、距离信息、和上一级侦测算法获得的指定ID的仿真机器人的位置信息进行数据融合换算。视觉检测可以检测出仿真机器人的ID、类别、目标框的坐标。目标框的坐标信息包括
Figure 568528DEST_PATH_IMAGE021
。左上角为坐标原点,
Figure 663523DEST_PATH_IMAGE022
为方框左上角的像素坐标,
Figure 457166DEST_PATH_IMAGE023
为右下角的坐标。
S2:模拟单目相机水平向前,图6为模拟单目相机投影的俯视图,只考察水平方向。三角形COD代表模拟单目相机。比如目前模拟单目相机拍摄得到的图片是 640 * 480 像素,水平方向640 像素。相机焦距 16.16 mm,对应图6中的
Figure 358126DEST_PATH_IMAGE024
mm。相机感光区域水平方向长度为 24.89 mm,竖直方向长度为18.66 mm。对应图6就是CD长度为24.89mm,因此模拟单目相机的水平视角大小为75.2度。CD的像素长度为640,其物理长度为24.89mm,因此可以算得水平方向每个像素的物理长度。theta_max对应
Figure 655247DEST_PATH_IMAGE025
和正前方的夹角,其他变量类推。远处的目标AB投影到相机成像平面CD上,目标检测算法检测出目标框。水平方向坐标分别为
Figure 983460DEST_PATH_IMAGE026
。再通过
Figure 264400DEST_PATH_IMAGE027
Figure 969050DEST_PATH_IMAGE028
的长度,可以换算出
Figure 714153DEST_PATH_IMAGE029
Figure 88633DEST_PATH_IMAGE030
的角度值。这两个角度在激光测距中需要用到。
在前一步数据预处理后得到点云的xyz坐标后,根据theta = arctan(y/x) 可以得到每个激光点相对于正前方的角度,保存
Figure 715924DEST_PATH_IMAGE031
范围内的激光点,计算其距离,可以得到每个目标框中的机器人对应的距离。
在其中一个实施例中,步骤108包括:通过TCP将被跟踪物体的ID、位置和速度传输到Uniyt端的C#控制程序,生成控制数字仿真环境的行为控制指令。
在其中一个实施例中,步骤110包括:将行为控制指令和数字仿真环境渲染成可视化动画,并在终端显示运行视频;根据行为控制指令控制当前仿真机器人进行相应的运动,并产生动态行为;行为驱动后又形成新的虚拟场景,再通过对齐渲染以形成连续的帧处理状态。
应该理解的是,虽然图1、图4的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1、图4中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,面向数字仿真环境的机器人目标跟踪方法的实施包括如下步骤:
T1:根据实物的具体参数1:1还原3D场景对足球场、四足机器人、激光雷达、单目相机进行建模。
T2:在Unity内导入设计好的模型,并制作动画让四足机器人能够具体实物运转能像实物一样拥有相同参数采集数据的能力,这些都是通过Unity和C#语言编程实现。
T3:配置文件设定,一共模拟了10只机器人,分成红蓝两队,共中一组分为1-5号,另一组分为6-10号,通过配置文件可以用shell命令加--machine参数启动相应颜色的机器人,最多添加10只机器人,也可以通过配置文件来选择以哪只机器人的视野进行观察侦测。观察侦测模式分为手动和自动两种,自动模式可以随机运动,也可以事先规划好路线。
T4:根据配置文件启动Unity仿真环境,开始相关设备的运转,在启动中实时生成的有效数据将会启用线程监听,每只机器人的数据监听是同步的。
T5:将激光雷达的测距信息、角速度、线速度,单目相机的图片信息进行组合以ID、时间戳、线速度、角速度、指定机器人视觉捕捉图片以byte类型用TCP协议实现传输。
T6:将接收到的图片信息以二进制流的形式传入到跟踪算法模型接口,解码后能过跟踪算法获得当前帧的机器人ID和位置信息。
T7:视觉检测结果以左上右下坐标形式返回,激光信息以距离和角度的方式返回,根据侦测物体目标
Figure 834052DEST_PATH_IMAGE032
和相机相关参数换算出目标在激光数据中的水平方向角
Figure 230399DEST_PATH_IMAGE033
Figure 775781DEST_PATH_IMAGE034
的角度大小。(相机和激光安装位置相对测量距离很近,近似成一个坐标系)。
T8:每只机器人的输入为相机检测到的每只机器人的ID、距离、角度,距离已经由激光测量出来,融合到当前场景的全局信息。
T9:返回的为控制速度和状态控制量,机器人的当前位置角速度和线速度控制机器人的运行状态。
T10:根据数据协议,将视觉检测结果和控制信号发送到Unity端,视觉检测结果为一个字典,当前Uniyt渲染的动画视频。信息格式为:{‘机器人ID’:[机器人左上右下坐标(x1,y1,x2,y2),物体类别置信度],……},例如:{‘0’:[(455,239,470,247),0.66259765625],‘1’:[(467,229,467,277),0.76599762717],……},展示到客户端显示屏上。
在一个实施例中,如图7所示,提供了一种面向数字仿真环境的机器人目标跟踪装置,包括:图片数据获取模块、跟踪目标的信息确定模块和跟踪模块,其中:
图片数据获取模块,用于获取当前数字仿真环境中仿真机器人上单目相机捕获的连续多帧图片;仿真机器人装配的单目相机与真实机器人装配的单目相机的视野及编码参数均相同;数字仿真环境是根据真实环境以及真实机器人参数按照1:1的比例仿真得到的。
跟踪目标的信息确定模块,用于将当前帧图片进行预处理后的预处理结果输入到目标检测网络中,得到目标物体及目标物***置坐标偏移量;目标检测网络用于采用改进的残差结构网络对预处理结果进行特征提取,然后对提取的不同层次的特征进行融合,并根据融合后的特征进行预测,得到目标物体及目标物***置坐标偏移量;将目标物体输入到目标匹配网络中进行特征匹配,得到匹配物体的ID和类别;目标匹配网络用于采用Resnet结构的网络提取目标物体的特征,并采用Memo单元对提取的特征进行匹配分类,得到匹配物体的ID和类别。
目标跟踪模块,用于当匹配物体与当前被跟踪物体的类别和ID相符时,则将匹配物体的目标框的坐标与激光雷达测量的角速度、线速度以及距离信息进行数据融合换算,得到当前被跟踪物体的ID、位置和速度;将当前被跟踪物体的ID、位置和速度传输到数字仿真环境的控制端,在数字仿真环境的控制端生成控制数字仿真环境的行为控制指令;根据行为控制指令驱动当前仿真机器人进行相应的动作行为,实现在数字仿真环境中当前仿真机器人对跟踪对象的追踪。
在其中一个实施例中,步骤100前还包括:获取机器人、场地、障碍物的实际参数;机器人配置有激光雷达;场地的实际参数包括:场地面积、场地内的细节特征;根据实际参数对机器人、场地、障碍物进行1:1建模;仿真机器人配置有模拟激光雷达和模拟单目相机;模拟激光雷达用于测量当前仿真机器人到被跟踪物体之间的距离;模拟单目相机用于实时拍摄定位到的机器人的视野范围,并将捕获到的视图传输到控制端;将多个仿真机器人分为两组,并进行标识,将障碍物的属性设置为可在场地内任意位置随意添加,并将场地、所有仿真机器人以及相应位置添加的障碍物的模型进行融合渲染,得到数字仿真环境的测试场景;给每一个仿真机器人设置配置文件,配置文件包括预先编写好的运动轨迹;将模拟单目相机捕获的视图、模拟激光雷达捕获的相关距离信息和每只机器人的速度信息在控制端进行整合,并将得到的整合信息传输到对应的接口;整合信息包括:ID、时间戳、图像信息、线速度、角速度、及仿真机器人的姿态信息。
在其中一个实施例中,目标检测网络包括:特征提取网络、特征融合网络和预测网络;特征提取网络是改进的残差网络,包括:多个CBCL模块,多个残差模块;CBCL模块由依次连接的1*1卷积层、批标准化层、3*3卷积层以及Leakyrelu激活函数组成;残差模块包括1个CBCL模块和若干个残差单元,残差单元由两个CBCL模块和一个加和模块组成;特征融合网络包括上采样层和拼接模块;预测网络包括1个CBCL模块;步骤102包括:将当前帧图片进行处理成416*416*3大小的张量,得到预处理结果;将预处理结果输入到目标检测网络的特征提取网络的第一个CBCL模块中进行卷积特征提取,将得到的卷积体征输入到第一个残差模块中,得到第一层次特征;将第一层次特征输入到特征提取网络的第二个残差模块中,得到第二层次特征;将第二层次特征输入到特征提取网络的第三个残差模块中,得到第三层次特征;将第三层次特征输入到特征提取网络的第四个残差模块中,得到第四层次特征;第四层次特征输入到特征提取网络的第二个CBCL模块中,并将得到的特征输入到特征提取网络的第三个CBCL模块中,并对得到的特征进行下采样,将下采样结果输入到特征提取网络的第四个CBCL模块中,将第四个CBCL模块输出的特征输入到特征提取网络的第五个CBCL模块中,得到第五层次特征;将第三层次特征、第四层次特征以及第五层次特征输入到特征融合网络中,经过上采样层对第五层次特征进行上采样,将得到的上采样结果与第四层次特征进行拼接,再经过上采样层对得到的拼接结果进行上采样,并将得到的上采样结果与第三层次特征进行拼接,得到融合特征;将融合特征和第五层次特征输入到预测网络中,经过CBCL模块对融合特征进行卷积处理,并将得到的卷积处理结果和第五层次特征进行加和融合,得到目标物体及目标物***置坐标偏移量。
在其中一个实施例中,目标匹配网络包括匹配特征提取网络和Memo单元;匹配特征提取网络是Resnet50网络;步骤104包括:将目标物体输入到匹配特征提取网络中,得到目标物体特征;将目标物体特征输入到Memo单元中进行特征匹配,得到匹配物体的ID和类别。
在其中一个实施例中,Memo单元包括2个CBCL模块、2个卷积层、1全局平均池化层、以及Softmax函数;步骤:将目标物体特征输入到Memo单元中进行特征匹配,得到匹配物体的ID和类别,包括:将目标物体特征输入到Memo单元的第一个CBCL模块中,将得到结果输入到Memo单元的第二个CBCL模块中,并将得到的结果输入到Memo单元的第一个卷积层中,得到第一特征;将目标物体特征输入到Memo单元的全局平均池化层中,将得到池化结果输入到Memo单元的第二个卷积层中,并将得到的卷积结果采用Softmax函数激活,得到输入到Memo单元的第一个卷积层中,得到第二特征;将第一特征和第二特征乘积融合后,得到匹配物体的ID和类别。
在其中一个实施例中,目标框的坐标包括目标框的左上角和右下角的坐标信息,表示为
Figure 155946DEST_PATH_IMAGE035
,其中
Figure 809257DEST_PATH_IMAGE036
为目标框的左上角的像素坐标,
Figure 325689DEST_PATH_IMAGE037
为目标框的右下角的像素坐标。步骤108包括:当匹配物体与当前被跟踪物体的类别和ID相符时:根据匹配物体的ID将当前被跟踪物体在模拟单目相机成像平面上所成的像与目标框对应;根据模拟单目相机拍摄图片的像素规格和相机感光区域水平方向长度,确定水平方向每个像素的物理长度;根据水平方向每个像素的物理长度、当前被跟踪物体对应的目标框在相机成像平面上水平方向的坐标
Figure 41972DEST_PATH_IMAGE038
Figure 643855DEST_PATH_IMAGE039
,确定
Figure 431682DEST_PATH_IMAGE040
Figure 677987DEST_PATH_IMAGE041
的长度,其中
Figure 955385DEST_PATH_IMAGE042
为过相机所在的点O的直线与相机成像平面上水平方向的垂直相交的点;根据
Figure 654350DEST_PATH_IMAGE043
Figure 42606DEST_PATH_IMAGE044
的长度以及模拟单目相机的焦距,确定
Figure 143418DEST_PATH_IMAGE045
Figure 529400DEST_PATH_IMAGE046
的角度值;根据
Figure 105874DEST_PATH_IMAGE047
Figure 173187DEST_PATH_IMAGE048
的角度值确定当前被跟踪物体的目标框在相机成像平面上水平方向的坐标
Figure 253139DEST_PATH_IMAGE049
Figure 747705DEST_PATH_IMAGE050
与相机所在的点O所成
Figure 749159DEST_PATH_IMAGE051
的值;根据
Figure 479218DEST_PATH_IMAGE052
的值和每个激光点相对于正前方的角度,确定
Figure 554621DEST_PATH_IMAGE053
范围内的激光点,计算激光点的距离,得到每个目标框中的机器人对应的距离;根据距离和
Figure 344723DEST_PATH_IMAGE054
的值确定当前被跟踪物体的位置。
在其中一个实施例中,步骤108包括:通过TCP将被跟踪物体的ID、位置和速度传输到Uniyt端的C#控制程序,生成控制数字仿真环境的行为控制指令。
在其中一个实施例中,步骤110包括:将行为控制指令和数字仿真环境渲染成可视化动画,并在终端显示运行视频;根据行为控制指令控制当前仿真机器人进行相应的运动,并产生动态行为;行为驱动后又形成新的虚拟场景,再通过对齐渲染以形成连续的帧处理状态。
关于面向数字仿真环境的机器人目标跟踪装置的具体限定可以参见上文中对于面向数字仿真环境的机器人目标跟踪方法的限定,在此不再赘述。上述面向数字仿真环境的机器人目标跟踪装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图8所示。该计算机设备包括通过***总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作***和计算机程序。该内存储器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种面向数字仿真环境的机器人目标跟踪方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图8中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,该存储器存储有计算机程序,该处理器执行计算机程序时实现上述方法实施例中的步骤。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种面向数字仿真环境的机器人目标跟踪方法,其特征在于,所述方法包括:
获取当前数字仿真环境中仿真机器人上单目相机捕获的连续多帧图片;仿真机器人装配的单目相机与真实机器人装配的单目相机的视野及编码参数均相同;数字仿真环境是根据真实环境以及真实机器人参数按照1:1的比例仿真得到的;
将当前帧图片进行预处理后的预处理结果输入到目标检测网络中,得到目标物体及目标物***置坐标偏移量;所述目标检测网络用于采用改进的残差结构网络对所述预处理结果进行特征提取,然后对提取的不同层次的特征进行融合,并根据融合后的特征进行预测,得到目标物体及目标物***置坐标偏移量;
将所述目标物体输入到目标匹配网络中进行特征匹配,得到匹配物体的ID和类别;所述目标匹配网络用于采用Resnet结构的网络提取所述目标物体的特征,并采用Memo单元对提取的特征进行匹配分类,得到匹配物体的ID和类别;
当匹配物体与当前被跟踪物体的类别和ID相符时,则将匹配物体的目标框的坐标与激光雷达测量的角速度、线速度以及距离信息进行数据融合换算,得到当前被跟踪物体的ID、位置和速度;
将当前被跟踪物体的ID、位置和速度传输到数字仿真环境的控制端,在数字仿真环境的控制端生成控制数字仿真环境的行为控制指令;
根据所述行为控制指令驱动当前仿真机器人进行相应的动作行为,实现在数字仿真环境中当前仿真机器人对跟踪对象的追踪。
2.根据权利要求1所述的方法,其特征在于,获取当前数字仿真环境中仿真机器人上单目相机捕获的连续多帧图片,步骤前还包括:
获取机器人、场地、障碍物的实际参数;所述机器人配置有激光雷达;所述场地的实际参数包括:场地面积、场地内的细节特征;
根据所述实际参数对机器人、场地、障碍物进行1:1建模;仿真机器人配置有模拟激光雷达和模拟单目相机;所述模拟激光雷达用于测量当前仿真机器人到被跟踪物体之间的距离;所述模拟单目相机用于实时拍摄定位到的机器人的视野范围,并将捕获到的视图传输到控制端;
将多个仿真机器人分为两组,并进行标识,将障碍物的属性设置为可在场地内任意位置随意添加,并将场地、所有仿真机器人以及相应位置添加的障碍物的模型进行融合渲染,得到数字仿真环境的测试场景;
给每一个仿真机器人设置配置文件,所述配置文件包括预先编写好的运动轨迹;
将模拟单目相机捕获的视图、模拟激光雷达捕获的相关距离信息和每只机器人的速度信息在控制端进行整合,并将得到的整合信息传输到对应的接口;所述整合信息包括:ID、时间戳、图像信息、线速度、角速度、及仿真机器人的姿态信息。
3.根据权利要求1所述的方法,其特征在于,所述目标检测网络包括:特征提取网络、特征融合网络和预测网络;所述特征提取网络是改进的残差网络,包括:多个CBCL模块,多个残差模块;所述CBCL模块由依次连接的1*1卷积层、批标准化层、3*3卷积层以及Leakyrelu激活函数组成;所述残差模块包括1个CBCL模块和若干个残差单元,所述残差单元由两个CBCL模块和一个加和模块组成;所述特征融合网络包括上采样层和拼接模块;所述预测网络包括1个CBCL模块;
将当前帧图片进行预处理后的预处理结果输入到目标检测网络中,得到目标物体及目标物***置坐标偏移量,包括:
将当前帧图片进行处理成416*416*3大小的张量,得到预处理结果;
将所述预处理结果输入到所述目标检测网络的特征提取网络的第一个CBCL模块中进行卷积特征提取,将得到的卷积体征输入到第一个残差模块中,得到第一层次特征;
将所述第一层次特征输入到所述特征提取网络的第二个残差模块中,得到第二层次特征;
将所述第二层次特征输入到所述特征提取网络的第三个残差模块中,得到第三层次特征;
将所述第三层次特征输入到所述特征提取网络的第四个残差模块中,得到第四层次特征;
所述第四层次特征输入到所述特征提取网络的第二个CBCL模块中,并将得到的特征输入到所述特征提取网络的第三个CBCL模块中,并对得到的特征进行下采样,将下采样结果输入到所述特征提取网络的第四个CBCL模块中,将第四个CBCL模块输出的特征输入到所述特征提取网络的第五个CBCL模块中,得到第五层次特征;
将所述第三层次特征、所述第四层次特征以及所述第五层次特征输入到所述特征融合网络中,经过上采样层对所述第五层次特征进行上采样,将得到的上采样结果与所述第四层次特征进行拼接,再经过上采样层对得到的拼接结果进行上采样,并将得到的上采样结果与所述第三层次特征进行拼接,得到融合特征;
将所述融合特征和所述第五层次特征输入到预测网络中,经过CBCL模块对所述融合特征进行卷积处理,并将得到的卷积处理结果和所述第五层次特征进行加和融合,得到目标物体及目标物***置坐标偏移量。
4.根据权利要求1所述的方法,其特征在于,所述目标匹配网络包括匹配特征提取网络和Memo单元;所述匹配特征提取网络是Resnet50网络;
将所述目标物体输入到目标匹配网络中进行特征匹配,得到匹配物体的ID和类别,包括:
将所述目标物体输入到所述匹配特征提取网络中,得到目标物体特征;
将所述目标物体特征输入到所述Memo单元中进行特征匹配,得到匹配物体的ID和类别。
5.根据权利要求4所述的方法,其特征在于,所述Memo单元包括2个CBCL模块、2个卷积层、1全局平均池化层、以及Softmax函数;
将所述目标物体特征输入到所述Memo单元中进行特征匹配,得到匹配物体的ID和类别,包括:
将所述目标物体特征输入到Memo单元的第一个CBCL模块中,将得到结果输入到Memo单元的第二个CBCL模块中,并将得到的结果输入到Memo单元的第一个卷积层中,得到第一特征;
将所述目标物体特征输入到Memo单元的全局平均池化层中,将得到池化结果输入到Memo单元的第二个卷积层中,并将得到的卷积结果采用Softmax函数激活,得到输入到Memo单元的第一个卷积层中,得到第二特征;
将所述第一特征和所述第二特征乘积融合后,得到匹配物体的ID和类别。
6.根据权利要求1所述的方法,其特征在于,目标框的坐标包括目标框的左上角和右下角的坐标信息,表示为
Figure 539822DEST_PATH_IMAGE001
,其中
Figure 863487DEST_PATH_IMAGE002
为目标框的左上角的像素坐标,
Figure 174383DEST_PATH_IMAGE003
为目标框的右下角的像素坐标;
当匹配物体与当前被跟踪物体的类别和ID相符时,则将匹配物体的目标框的坐标与激光雷达测量的角速度、线速度以及距离信息进行数据融合换算,得到当前被跟踪物体的ID、位置和速度,包括:
当匹配物体与当前被跟踪物体的类别和ID相符时:
根据匹配物体的ID将当前被跟踪物体在模拟单目相机成像平面上所成的像与目标框对应;
根据模拟单目相机拍摄图片的像素规格和相机感光区域水平方向长度,确定水平方向每个像素的物理长度;
根据水平方向每个像素的物理长度、当前被跟踪物体对应的目标框在相机成像平面上水平方向的坐标
Figure 304013DEST_PATH_IMAGE004
Figure 524909DEST_PATH_IMAGE005
,确定
Figure 144110DEST_PATH_IMAGE006
Figure 817668DEST_PATH_IMAGE007
的长度,其中
Figure 750988DEST_PATH_IMAGE008
为过相机所在的点O的直线与相机成像平面上水平方向的垂直相交的点;
根据
Figure 951026DEST_PATH_IMAGE009
Figure 613564DEST_PATH_IMAGE010
的长度以及模拟单目相机的焦距,确定
Figure 899051DEST_PATH_IMAGE011
Figure 370484DEST_PATH_IMAGE012
的角度值;
根据
Figure 300394DEST_PATH_IMAGE013
Figure 526976DEST_PATH_IMAGE014
的角度值确定当前被跟踪物体的目标框在相机成像平面上水平方向的坐标
Figure 175126DEST_PATH_IMAGE015
Figure 184670DEST_PATH_IMAGE016
与相机所在的点O所成
Figure 359300DEST_PATH_IMAGE017
的值;
根据
Figure 100991DEST_PATH_IMAGE018
的值和每个激光点相对于正前方的角度,确定
Figure 626650DEST_PATH_IMAGE019
范围内的激光点,计算激光点的距离,得到每个目标框中的机器人对应的距离;
根据所述距离和
Figure 111989DEST_PATH_IMAGE020
的值确定当前被跟踪物体的位置。
7.根据权利要求1所述的方法,其特征在于,将当前被跟踪物体的ID、位置和速度传输到数字仿真环境的控制端,在数字仿真环境的控制端生成控制数字仿真环境的行为控制指令,包括:
通过TCP将所述被跟踪物体的ID、位置和速度传输到Uniyt端的C#控制程序,生成控制数字仿真环境的行为控制指令。
8.根据权利要求1所述的方法,其特征在于,根据所述行为控制指令驱动当前仿真机器人进行相应的动作行为,实现在数字仿真环境中当前仿真机器人对跟踪对象的追踪,包括:
将所述行为控制指令和数字仿真环境渲染成可视化动画,并在终端显示运行视频;
根据所述行为控制指令控制当前仿真机器人进行相应的运动,并产生动态行为;行为驱动后又形成新的虚拟场景,再通过对齐渲染以形成连续的帧处理状态。
9.一种面向数字仿真环境的机器人目标跟踪装置,其特征在于,所述装置包括:
图片数据获取模块,用于获取当前数字仿真环境中仿真机器人上单目相机捕获的连续多帧图片;仿真机器人装配的单目相机与真实机器人装配的单目相机的视野及编码参数均相同;数字仿真环境是根据真实环境以及真实机器人参数按照1:1的比例仿真得到的;
跟踪目标的信息确定模块,用于将当前帧图片进行预处理后的预处理结果输入到目标检测网络中,得到目标物体及目标物***置坐标偏移量;所述目标检测网络用于采用改进的残差结构网络对所述预处理结果进行特征提取,然后对提取的不同层次的特征进行融合,并根据融合后的特征进行预测,得到目标物体及目标物***置坐标偏移量;将所述目标物体输入到目标匹配网络中进行特征匹配,得到匹配物体的ID和类别;所述目标匹配网络用于采用Resnet结构的网络提取所述目标物体的特征,并采用Memo单元对提取的特征进行匹配分类,得到匹配物体的ID和类别;
目标跟踪模块,用于当匹配物体与当前被跟踪物体的类别和ID相符时,则将匹配物体的目标框的坐标与激光雷达测量的角速度、线速度以及距离信息进行数据融合换算,得到当前被跟踪物体的ID、位置和速度;将当前被跟踪物体的ID、位置和速度传输到数字仿真环境的控制端,在数字仿真环境的控制端生成控制数字仿真环境的行为控制指令;根据所述行为控制指令驱动当前仿真机器人进行相应的动作行为,实现在数字仿真环境中当前仿真机器人对跟踪对象的追踪。
10.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至8中任一项所述方法的步骤。
CN202211060146.6A 2022-09-01 2022-09-01 面向数字仿真环境的机器人目标跟踪方法、装置和设备 Active CN115131407B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211060146.6A CN115131407B (zh) 2022-09-01 2022-09-01 面向数字仿真环境的机器人目标跟踪方法、装置和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211060146.6A CN115131407B (zh) 2022-09-01 2022-09-01 面向数字仿真环境的机器人目标跟踪方法、装置和设备

Publications (2)

Publication Number Publication Date
CN115131407A true CN115131407A (zh) 2022-09-30
CN115131407B CN115131407B (zh) 2022-11-22

Family

ID=83387608

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211060146.6A Active CN115131407B (zh) 2022-09-01 2022-09-01 面向数字仿真环境的机器人目标跟踪方法、装置和设备

Country Status (1)

Country Link
CN (1) CN115131407B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116243623A (zh) * 2023-05-10 2023-06-09 深圳墨影科技有限公司 应用于数字化机器人产业链的机器人场景仿真方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190147621A1 (en) * 2017-11-16 2019-05-16 Nec Europe Ltd. System and method for real-time large image homography processing
CN112965081A (zh) * 2021-02-05 2021-06-15 浙江大学 基于融合行人信息的特征地图的模仿学习社交导航方法
US20220214457A1 (en) * 2018-03-14 2022-07-07 Uatc, Llc Three-Dimensional Object Detection
CN114912287A (zh) * 2022-05-26 2022-08-16 四川大学 基于目标6d位姿估计的机器人自主抓取仿真***及方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190147621A1 (en) * 2017-11-16 2019-05-16 Nec Europe Ltd. System and method for real-time large image homography processing
US20220214457A1 (en) * 2018-03-14 2022-07-07 Uatc, Llc Three-Dimensional Object Detection
CN112965081A (zh) * 2021-02-05 2021-06-15 浙江大学 基于融合行人信息的特征地图的模仿学习社交导航方法
CN114912287A (zh) * 2022-05-26 2022-08-16 四川大学 基于目标6d位姿估计的机器人自主抓取仿真***及方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116243623A (zh) * 2023-05-10 2023-06-09 深圳墨影科技有限公司 应用于数字化机器人产业链的机器人场景仿真方法
CN116243623B (zh) * 2023-05-10 2023-08-04 深圳墨影科技有限公司 应用于数字化机器人产业链的机器人场景仿真方法

Also Published As

Publication number Publication date
CN115131407B (zh) 2022-11-22

Similar Documents

Publication Publication Date Title
CN111126304B (zh) 一种基于室内自然场景图像深度学习的增强现实导航方法
CN108898676B (zh) 一种虚实物体之间碰撞及遮挡检测方法及***
Kumar et al. Monocular fisheye camera depth estimation using sparse lidar supervision
CN107665506B (zh) 实现增强现实的方法及***
CN109920055A (zh) 三维视觉地图的构建方法、装置与电子设备
CN107967457A (zh) 一种适应视觉特征变化的地点识别与相对定位方法及***
CN113034652A (zh) 虚拟形象驱动方法、装置、设备及存储介质
Yu et al. Intelligent visual-IoT-enabled real-time 3D visualization for autonomous crowd management
CN116883610A (zh) 基于车辆识别与轨迹映射的数字孪生路口构建方法和***
CN115131407B (zh) 面向数字仿真环境的机器人目标跟踪方法、装置和设备
Gao et al. Pose refinement with joint optimization of visual points and lines
CN117197388A (zh) 一种基于生成对抗神经网络和倾斜摄影的实景三维虚拟现实场景构建方法及***
Yang et al. Recovering and simulating pedestrians in the wild
CN115330946A (zh) 元宇宙构建方法、装置、存储介质及电子设备
Zhu et al. Large-scale architectural asset extraction from panoramic imagery
CN111531546B (zh) 一种机器人位姿估计方法、装置、设备及存储介质
CN116503566B (zh) 一种三维建模方法、装置、电子设备及存储介质
Degol et al. Feats: Synthetic feature tracks for structure from motion evaluation
CN117132649A (zh) 人工智能融合北斗卫星导航的船舶视频定位方法及装置
CN112132466A (zh) 基于三维建模的路线规划方法、装置、设备和存储介质
Hou et al. Octree-based approach for real-time 3d indoor mapping using rgb-d video data
CN116259001A (zh) 一种多视角融合的三维行人姿态估计与追踪方法
CN116259025A (zh) 一种自动驾驶视觉感知特征提取方法及装置
US11595568B2 (en) System for generating a three-dimensional scene of a physical environment
US11461956B2 (en) 3D representation reconstruction from images using volumic probability data

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant