CN107545589A - 一种空间定位***及方法 - Google Patents
一种空间定位***及方法 Download PDFInfo
- Publication number
- CN107545589A CN107545589A CN201710547068.5A CN201710547068A CN107545589A CN 107545589 A CN107545589 A CN 107545589A CN 201710547068 A CN201710547068 A CN 201710547068A CN 107545589 A CN107545589 A CN 107545589A
- Authority
- CN
- China
- Prior art keywords
- illuminator
- data
- default
- locus
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明涉及空间定位领域,尤其涉及一种空间定位***及方法,包括图像信息模块阵列、中央处理模块和至少一个定位模块,其中,所述图像信息模块阵列包括至少两个图像信息模块,每个图像信息模块中包括摄像装置和计算模块,每个定位模块中包括至少一个发光体,这样,控制至少一个发光体发射光源,并采用图像信息模块阵列覆盖定位区域,同时拍摄至少一个发光体,进而结合数据融合算法和识别算法,实现对多个发光体的识别和定位,扩大了定位范围,也可以定位多个目标,可以适用于大范围多目标空间定位的应用场景,也提升了***定位的精度和鲁棒性。
Description
技术领域
本发明涉及空间定位领域,尤其涉及一种空间定位***及方法。
背景技术
目前,对于空间定位技术,由于光学定位更加准确和方便,应用更加广泛,例如,可以应用在生物学、机器人视觉***、虚拟现实(Virtual Reality,VR)跟踪技术等。
现有技术中,在光学定位***中,采用图像识别技术进行空间定位,主要是提供两个摄像装置对一个球形发光体进行空间定位,摄像装置均固定朝向和位置,利用摄像装置拍摄的图像进行分析定位,利用拍摄图像中球形发光体的坐标,测量球形发光体与摄像装置的距离和角度信息,进而根据球形发光体分别与这两个图像拍摄装置的距离和角度信息,计算球形发光体的空间位置。但是这种方法有一定的局限性和缺点,具体为:
只定位了一个发光目标,无法同时定位多个发光目标,这是因为,若同时定位多个发光目标,会出现多个发光目标识别的问题,进而无法分别计算每个发光目标的空间位置。并且,定位范围依赖于摄像装置安装的位置,由于只采用一组摄像装置来获取发光目标的位置,一组摄像装置的拍摄范围是有限的,会极大影响拍摄范围,进而影响对发光目标的定位。由于拍摄范围有限,若发光目标被遮挡,则无法进行追踪。
由此可见,现有技术中,空间定位方法定位目标单一,拍摄范围有限,进而减小了定位应用范围,也降低了定位准确性。
发明内容
本发明实施例提供一种空间定位***及方法,以解决现有技术中空间定位存在定位目标单一、定位范围有限的问题。
本发明实施例提供的具体技术方案如下:
一种空间定位***,包括:图像信息模块阵列、中央处理模块和至少一个定位模块,其中,所述图像信息模块阵列包括至少两个图像信息模块,每个图像信息模块中包括摄像装置和计算模块,每个定位模块中包括至少一个发光体,具体为:
所述摄像装置,用于拍摄所述至少一个发光体,并将拍摄获得的所述至少一个发光体的图像数据发送给所述计算模块;
所述计算模块,用于对所述至少一个发光体的图像数据进行处理,获得所述至少一个发光体对应的处理结果数据,以及将所述至少一个发光体对应的处理结果数据发送给中央处理模块;
定位模块,用于根据发光控制指令,控制所述至少一个发光体发射光源;
中央处理模块,用于根据所述至少一个发光体对应的处理结果数据和预设的识别算法,识别所述至少一个发光体,并在识别出所述至少一个发光体后,根据所述至少一个发光体对应的处理结果数据和预设的数据融合算法,计算所述至少一个发光体的空间位置。
本发明实施例中,空间定位***,包括:图像信息模块阵列、中央处理模块和至少一个定位模块,其中,所述图像信息模块阵列包括至少两个图像信息模块,每个图像信息模块中包括摄像装置和计算模块,每个定位模块中包括至少一个发光体,具体为:所述摄像装置,用于拍摄所述至少一个发光体,并将拍摄获得的所述至少一个发光体的图像数据发送给所述计算模块;所述计算模块,用于对所述至少一个发光体的图像数据进行处理,获得所述至少一个发光体对应的处理结果数据,以及将所述至少一个发光体对应的处理结果数据发送给中央处理模块;定位模块,用于根据发光控制指令,控制所述至少一个发光体发射光源;中央处理模块,用于根据所述至少一个发光体对应的处理结果数据和预设的识别算法,识别所述至少一个发光体,并在识别出所述至少一个发光体后,根据所述至少一个发光体对应的处理结果数据和预设的数据融合算法,计算所述至少一个发光体的空间位置。这样,采用图像信息模块阵列覆盖定位区域,具有极强的可拓展性,可以很方便地通过增加或减少图像信息模块数量,来定位任意大小和任意形状的空间,扩大了定位范围,并且,通过数据融合算法和识别算法,能够识别多个发光体,进而分别计算多个发光体的空间位置,实现对多个发光体的识别和定位,也提高了***定位的精度和鲁棒性,有更广泛的应用场景,可以适用于大范围多目标空间定位的应用场景。
较佳的,根据发光控制指令,控制所述至少一个发光体发射光源,定位模块具体用于:
控制所述至少一个发光体以预设的发光波长和发光模式,发射光源。
较佳的,所述处理数据中至少包括所述至少一个发光体的发光波长和发光模式;
根据所述至少一个发光体对应的处理结果数据和预设的识别算法,识别所述至少一个发光体,中央处理模块具体用于:
根据获得的所述至少一个发光体的发光波长,和预设的发光波长与发光体的映射关系,识别所述至少一个发光体;或,
根据获得的所述至少一个发光体的发光波长和发光模式,以及预设的运动目标连续性检测算法,识别所述至少一个发光体。
较佳的,所述处理结果数据中至少包括所述至少一个发光体的中心点的坐标;
在识别出所述至少一个发光体后,根据所述至少一个发光体对应的处理结果数据和预设的数据融合算法,计算所述至少一个发光体的空间位置,中央处理模块具体用于:
根据所述至少一个发光体的中心点的坐标,分别计算所述至少一个发光体相对于相应的摄像装置的角度信息;
若确定所述至少一个发光体被M个摄像装置拍摄到,则根据所述至少一个发光体分别相对于所述M个摄像装置的角度信息,以及预设的数据融合算法,计算所述至少一个发光体的空间位置;其中,M为大于1的整数。
较佳的,中央处理模块还用于:
若所述定位模块包括至少两个发光体,则根据定位模块中所述至少两个发光体的空间位置和预设的所述至少两个发光体之间的相对位置,计算所述定位模块的空间位置;或,
若所述定位模块包括一个发光体,则将所述一个发光体的空间位置,作为所述定位模块的空间位置。
较佳的,所述定位模块进一步包括:多轴陀螺仪。
所述定位模块,还用于将所述多轴陀螺仪检测到的数据,发送给所述中央处理模块。
所述中央处理模块,还用于根据接收到的处理结果数据和预设的数据融合算法,以及结合多轴陀螺仪检测到的数据,计算所述至少一个发光体的空间位置。
一种空间定位方法,包括:
拍摄至少一个发光体,获得所述至少一个发光体的图像数据;
对所述至少一个发光体的图像数据进行处理,获得所述至少一个发光体对应的处理结果数据;
根据所述至少一个发光体对应的处理结果数据和预设的识别算法,识别所述至少一个发光体,并在识别出所述至少一个发光体后,根据所述至少一个发光体对应的处理结果数据和预设的数据融合算法,计算所述至少一个发光体的空间位置。
较佳的,进一步包括:
控制所述至少一个发光体以预设的发光波长和发光模式,发射光源。
较佳的,所述处理数据中至少包括所述至少一个发光体的发光波长和发光模式;
根据所述至少一个发光体对应的处理结果数据和预设的识别算法,识别所述至少一个发光体,具体包括:
根据获得的所述至少一个发光体的发光波长,和预设的发光波长与发光体的映射关系,识别所述至少一个发光体;或,
根据获得的所述至少一个发光体的发光波长和发光模式,以及预设的运动目标连续性检测算法,识别所述至少一个发光体。
较佳的,所述处理结果数据中至少包括所述至少一个发光体的中心点的坐标;
在识别出所述至少一个发光体后,根据所述至少一个发光体对应的处理结果数据和预设的数据融合算法,计算所述至少一个发光体的空间位置,具体包括:
根据所述至少一个发光体的中心点的坐标,分别计算所述至少一个发光体相对于相应的摄像装置的角度信息;
若确定所述至少一个发光体被M个摄像装置拍摄到,则根据所述至少一个发光体分别相对于所述M个摄像装置的角度信息,以及预设的数据融合算法,计算所述至少一个发光体的空间位置;其中,M为大于1的整数。
较佳的,进一步包括:
若定位模块包括至少两个发光体,则根据定位模块中所述至少两个发光体的空间位置和预设的所述至少两个发光体之间的相对位置,计算定位模块的空间位置;或,
若定位模块包括一个发光体,则将所述一个发光体的空间位置,作为定位模块的空间位置。
较佳的,进一步包括:
获取定位模块中多轴陀螺仪检测到的数据,根据接收到的处理结果数据和预设的数据融合算法,以及结合多轴陀螺仪检测到的数据,计算所述至少一个发光体的空间位置。
本发明实施例中,拍摄至少一个发光体,获得所述至少一个发光体的图像数据;对所述至少一个发光体的图像数据进行处理,获得所述至少一个发光体对应的处理结果数据;根据所述至少一个发光体对应的处理结果数据和预设的识别算法,识别所述至少一个发光体,并在识别出所述至少一个发光体后,根据所述至少一个发光体对应的处理结果数据和预设的数据融合算法,计算所述至少一个发光体的空间位置,这样,同时拍摄多个发光体,通过数据融合算法和识别算法,能够识别多个发光体,进而分别计算多个发光体的空间位置,实现对多个发光体的识别和定位,也提高了***定位的精度和鲁棒性,有更广泛的应用场景,可以适用于大范围多目标空间定位的应用场景。
附图说明
图1为本发明实施例中,空间定位***架构示意图;
图2为本发明实施例中,空间定位***中图像信息模块阵列的布局示意图;
图3为本发明实施例中,相同发光波长发光体的不同发光强度模式示意图;
图4为本发明实施例中,空间定位方法流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,并不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了解决现有技术中空间定位存在定位目标单一和定位范围有限的问题,本发明实施例中,提供了一种空间定位***,包括:图像信息模块阵列、中央处理模块和至少一个定位模块,在预设的定位区域中布局图像信息模块阵列,可以同时对多个定位模块中的多个发光体拍摄,并采用预设的识别算法,能够分别识别各发光体,进而可以实现分别计算各发光体的空间位置。
下面通过具体实施例对本发明方案进行详细描述,当然,本发明并不限于以下实施例。
参阅图1所示,本发明实施例中,空间定位***的具体包括:图像信息模块阵列(其中,图像信息模块阵列在图1中未示出)、中央处理模块2和至少一个定位模块3,其中,所述图像信息模块阵列包括至少两个图像信息模块1,每个图像信息模块1中包括摄像装置10和计算模块11,每个定位模块3中包括至少一个发光体,具体为:
所述摄像装置10,用于拍摄所述至少一个发光体,并将拍摄获得的所述至少一个发光体的图像数据发送给所述计算模块11。
所述计算模块11,用于对所述至少一个发光体的图像数据进行处理,获得所述至少一个发光体对应的处理结果数据,以及将所述至少一个发光体对应的处理结果数据发送给中央处理模块2。
定位模块3,用于根据发光控制指令,控制所述至少一个发光体发射光源。
中央处理模块2,用于根据所述至少一个发光体对应的处理结果数据和预设的识别算法,识别所述至少一个发光体,并在识别出所述至少一个发光体后,根据所述至少一个发光体对应的处理结果数据和预设的数据融合算法,计算所述至少一个发光体的空间位置。
下面对上述几个模块进行简单介绍:
1)图像信息模块阵列。
本发明实施例中,采用至少两个图像信息模块1组成图像信息模块阵列,进而基于图像信息模块阵列,覆盖定位区域,来实时拍摄各发光体。
本发明实施例中,图像信息模块阵列,可以根据实际需求,例如,定位区域的面积及形状等,增加或减少摄像装置10的数量,确定图像信息模块阵列的组合方法和数量,并固定摄像装置10的位置,这样,由于图像信息模块阵列有极强的拓展性,因此,可以覆盖更广的定位区域,提高了定位范围,也可以定位任意大小任意形状的空间,并且,也可以同时拍摄多个发光体,适合大空间多目标定位的应用场景。
参阅图2所示,为本发明实施例中,空间定位***中图像信息模块阵列的布局示意图。
从图2可知,可以将定位区域划分成各个小的方格区域,例如,图2划分成了四个方格区域,可以在每一个方格区域的角上设置摄像装置10,根据每一个角涉及到的方格区域的数目,确定每一个角上的摄像装置10的数目,例如,最中间的角的位置,涉及四个方格区域,即可以拍摄四个方格区域中的发光体,则在这个中间的角上可以设置4个摄像装置10,并且,这四个摄像装置10的安装角度,可以为分别朝向相应的四个方格区域。
这样,通过设置图像信息模块阵列中摄像装置10的数目、拍摄角度等,可以全方位覆盖定位区域,进而使得本发明实施例中的空间定位***,具有更强的抗遮挡能力,只要有一侧的摄像装置10捕捉到发光体,都可以对发光体进行空间定位。
当然,图2仅是其中一种图像信息模块阵列的布局的示例,本发明实施例中,对于图像信息模块阵列的布局并不仅限于图2的布局方式,可以根据实际情况,例如定位区域的面积及形状等,来设置图像信息模块阵列的布局,目的是为了能够覆盖更广的定位区域,任何可以达到本发明实施例的目的的布局方式,都应属于本发明实施例的保护范围。
进一步地,对于图像信息模块1中的计算模块11,可以多个摄像装置10,对应一个计算模块11,计算模块11对摄像装置10拍摄获得的图像数据,进行简单的处理,例如,对拍摄获得的图像,进行降噪处理、提取出图像中的发光体区域,获得发光体上每一点在图像中的坐标,进而可以通过划定发光体几何中心的方法找到发光体的中心点,计算出发光体的中心点的坐标,也可以计算出发光体的直径数据。进而,计算模块11将获得的发光体的中心点的坐标、直径数据发送给中央处理模块2。
并且,计算模块11对图像数据进行处理后,获得的处理结果数据中不仅包括发光体的中心点的坐标和直径数据,还包括发光体的发光波长和发光模式。
由于本发明实施例中,可以同时对多个发光体进行拍摄,因此,在计算发光体的空间位置时,需要首先区分识别出每个发光体,本发明实施例中,控制每个发光体的发光波长,可以根据每个发光体的发光波长来区分每个发光体,也可以根据其它方法来区分每个发光体,具体地识别每个发光体的算法,在后续介绍中央处理模块2时再进行详细介绍。
2)定位模块3。
本发明实施例中,定位模块3中可以包括至少一个发光体,这样,本发明实施例中,不仅可以通过单个发光体,也可以通过多个发光体,来确定定位模块3的空间位置,这样,可以提高定位精度。
并且,本发明实施例中,可以给每个发光体设置一个编号,这样,不仅可以区分每个发光体,还可以知道是哪一个发光体;每个定位模块3中发光体的位置布局也都是固定的、已知的,为中央处理模块2计算定位模块3的空间位置,提供参考信息。
定位模块3,用于根据发光控制指令,控制至少一个发光体发射光源。
值得说明的是,发光控制指令,可以是定位模块3接收到外部发送的,也可以在定位模块3中设置一个控制模块,采用该控制模块,来发出发光控制指令,进而控制发光体发射光源。
具体用于:控制该至少一个发光体以预设的发光波长和发光模式,发射光源。
其中,发光模式,较佳的为发光强度或发光频率的变换模式。
例如,若图像信息模块阵列对于不同发光波长的分辨率为Δλ,可识别发光波长区域为λ,若需要识别的定位模块3的数量为N,N≤λ/Δλ,则可以控制定位模块3的发光体的发光波长分别为λ0,λ0+Δλ,λ0+2Δλ,...,λ0+NΔλ,这样,可以根据采集到的发光体的发光波长,来判断发光体的编号,确定是哪一个发光体。
又例如,若需要识别的定位模块3的数量N>λ/Δλ,则无法通过不同发光波长来区分每个发光体,必定有相同发光波长的发光体,这时,控制模块可以控制相同发光波长的发光体的发光模式,控制相同发光波长的发光体在时域,以不同发光模式改变其发光强度或发光频率,例如,参阅图3所示,提供了三种可能的相同发光波长发光体的不同发光强度模式示意图。这样,可以根据发光波长,并结合发光强度或发光频率的变换模式,来判断发光体的编号。
3)中央处理模块2。
中央处理模块2,用于根据所述至少一个发光体对应的处理结果数据和预设的识别算法,识别所述至少一个发光体,并在识别出所述至少一个发光体后,根据所述至少一个发光体对应的处理结果数据和预设的数据融合算法,计算所述至少一个发光体的空间位置。
具体用于:
首先,根据所述至少一个发光体对应的处理结果数据和预设的识别算法,识别所述至少一个发光体。
可以分为以下几种方式:
第一种方式:根据获得的所述至少一个发光体的发光波长,和预设的发光波长与发光体的映射关系,识别所述至少一个发光体。
若需要识别的定位模块3的数量N≤λ/Δλ,控制模块可以控制每个发光体的发光波长均不相同,则直接根据发光体的发光波长,就可以识别每个发光体,确定每个发光体的编号。
第二种方式:根据获得的所述至少一个发光体的发光波长和发光模式,以及运动目标连续性检测算法,识别所述至少一个发光体。
也就是说,采用发光波长和发光模式,来识别各发光体;同时,采用运动目标连续性检测算法,来识别每个发光体。
1)若需要识别的定位模块3的数量N>λ/Δλ,控制模块无法仅通过控制每个发光体的发光波长,来区分每个发光体,因此,针对相同发光波长的发光体通过控制其发光模式,来区分每个发光体,例如发光模式为,发光强度或发光频率的变换模式。
2)采用运动目标连续性检测算法。
其中,运动目标连续性检测算法的原理为:定位模块3根据人体移动,而人体在物理空间中移动有其速度限制Vmax,因此,若发光体在相邻两帧中识别位置分别为pn,pn+1,相邻两帧的时间间隔为Δt,则|pn+1-pn|<VmaxΔt。
本发明实施例中,运动目标连续性检测算法基于上述原理,来识别每个发光体。
例如,若t时刻检测到存在L个相同发光波长的发光体,其位置分别为(P1,P2,P3,...,PL),t+Δt时刻检测到此L个发光体的位置分别为(P1',P2',P3',...,PL'),若对于所有的t+Δt时刻的发光体,仅有|Pj'-Pt|<VmaxΔt,则可以判定j=t。因此,根据t时刻确定的该发光体的编号,就可以确定t+Δt时刻该发光体的编号,无需重新通过识别发光体的发光波长或发光强度变换模式确定发光体的编号。
值得说明的是,通过发光波长和发光模式,可以在任何时刻识别每个发光体,确定每个发光体的编号,但其识别需要一定的时间周期。运动目标连续性检测算法对于发光体的编号的确定虽然有识别距离的前置条件,但只要满足了运动目标连续性检测原理,则可以很快识别出发光体的编号,灵敏度高。
这样,本发明实施例中,采用发光波长和发光模式的识别,和运动目标连续性检测算法的联合识别算法,来识别每个发光体,可以准确地确定出每个发光体,并减少了识别时间,提高灵敏度,这样,针对多个发光体,不会出现混乱,能够先识别出每个发光体,进而可以分别计算出每个发光体的空间位置。
然后,在识别出所述至少一个发光体后,根据所述至少一个发光体对应的处理结果数据和预设的数据融合算法,计算所述至少一个发光体的空间位置。
具体为:
1)根据所述至少一个发光体的中心点的坐标,分别计算所述至少一个发光体相对于相应的摄像装置10的角度信息。
实际中,由于摄像装置10都是固定的,拍摄的图像中发光体的坐标对应于摄像装置10的角度信息,因此,可以预设图像中的坐标与角度信息的对应关系,进而可以根据发光体的中心点的坐标,计算发光体相对于相应的摄像装置10的角度信息。
2)若确定所述至少一个发光体被M个摄像装置10拍摄到,则根据所述至少一个发光体分别相对于所述M个摄像装置10的角度信息,以及预设的数据融合算法,计算所述至少一个发光体的空间位置,其中,M为大于1的整数。
具体地:根据所述至少一个发光体距离相应的摄像装置10的距离,分别确定所述M个摄像装置10的权重,并根据所述M个摄像装置10的权重、所述至少一个发光体分别相对于所述M个摄像装置10的角度信息,分别计算所述至少一个发光体的空间位置。
本发明实施例中,当一个发光体被多个摄像装置捕捉到,可以直接根据多个角度信息,来确定发光体的位置,例如,根据多个角度信息,可以从相应的摄像装置出发,有多条不同的线,这多条不同的线的相交的点,即是该发光体,相交的位置就可以认为是该发光体的位置,从而可以根据多个摄像装置的位置,以及多个角度信息,来计算得到发光体距离相应的摄像装置的距离,计算结果更加准确。
进一步地,也可以同时参考发光体的直径数据,具体地:
根据所述至少一个发光体的直径数据,分别计算所述至少一个发光体距离相应的摄像装置10的距离。
实际中,由于拍摄的图像中发光体的直径数据和发光体距离摄像装置10的距离相关,因此,可以预设发光体的直径数据与发光体距离摄像装置10的距离之间的对应关系,进而可以根据发光体的直径数据,计算出发光体距离相应的摄像装置10的距离。
由于根据发光体的直径数据,估算出的发光体距离相应的摄像装置的距离,误差比较大,计算结果并不准确,本发明实施例中,使用多个摄像装置捕捉发光体,得到多个角度信息,基于多个角度信息,相交确定发光体,同时也可以参考根据直径数据确定的距离,进一步提高了准确度。
例如,某发光体λi信息被M个摄像装置捕捉到,分别为C1,C2,C3,...,CM,对于发光体λi,摄像装置Cj的权重为wj=g(xj,yj,dj),其中g(x,y,d)为权重函数,(xj,yj)为发光体λi在摄像装置Cj中的二维信息,dj为发光体λi距离摄像装置Cj的距离。
若发光体λi的空间位置至少需要k个摄像装置才能确定,则可以将该M个摄像装置分成K个组,每组摄像装置的数量均大于k。若K个摄像装置组中一个摄像装置组表示为Gj=(C1,C2,C3,...,Cp),p>k,则其权重为Wj=f(w1,w2,w3,...,wp),其确定的发光体λi在三维空间中的空间位置为(Xj,Yj,Zj),则中央处理模块2对于发光体λi确定的最终的空间位置为:
也就是说,每个摄像装置10的权重并不是固定不变的,对于每个发光体,每个摄像装置10的权重均是不同的,与发光体距离摄像装置10的位置相关,这样,可以进一步提高发光体的空间位置确定的准确度。
当然,不仅限于采用上述加权融合法,还可以采用其它的数据融合算法,本发明实施例中,并不进行限定。
这样,识别出每个发光体后,对于所述至少一个发光体中的任意一个发光体,均可以采用上述方法,分别计算得到其空间位置,若根据识别结果,确定其中任意一个发光体被多个摄像装置10拍摄到,则可以根据数据融合算法,将计算获得的该任意一个发光体的多个空间位置坐标进行融合,得到最终确定的空间位置。
进一步地,中央处理模块2还用于:根据所述至少一个发光体的空间位置,计算定位模块3的空间位置。
具体可以分为以下两种情况:
第一种情况:若定位模块3包括至少两个发光体,则根据定位模块3中所述至少两个发光体的空间位置和预设的所述至少两个发光体之间的相对位置,计算所述定位模块3的空间位置。
例如,若一个定位模块3中包括3个发光体,且这三个发光体呈等边三角形布局,则可以根据等边三角形的几何中心方法,根据这3个发光体的空间位置,计算出中心的空间位置,可以将中心的空间位置作为该定位模块3的空间位置。
第二种情况:若定位模块3包括一个发光体,则将所述一个发光体的空间位置,作为所述定位模块3的空间位置。
进一步地,定位模块3还可以包括多轴陀螺仪。
进而中央处理模块2,还可以根据接收到的处理结果数据和预设的数据融合算法,以及结合多轴陀螺仪检测到的数据,计算所述至少一个发光体的空间位置。
这样,使用多轴陀螺仪与发光体组合来实现对定位模块3的定位以及姿态确定,进一步提高定位效率和准确性。
本发明实施例中,采用图像信息模块阵列覆盖定位区域,具有极强的可拓展性,可以很方便地通过增加或减少图像信息模块数量,来定位任意大小和任意形状的空间,解决了定位范围对摄像装置10的拍摄范围的依赖。并且,通过发光控制指令,对发光体进行控制,进而可以通过多个摄像装置10和数据融合算法以及识别算法,实现对多个发光体的识别和定位。并且,发光体均被多个摄像装置10在各个方向进行拍摄,只要有一侧摄像装置10拍摄到,就可以实现对该发光体的定位,提升了***的抗遮挡能力,也提高了***定位的精度和鲁棒性,有更广泛的应用场景,可以适用于大范围多目标空间定位的应用场景。
基于上述空间定位***,具体参阅图4所示,本发明实施例中,空间定位方法的具体流程如下:
步骤400:拍摄至少一个发光体,获得所述至少一个发光体的图像数据。
也就是说,本发明实施例中,可以对多个发光体进行拍摄,同时定位多个发光体。
进一步地,控制所述至少一个发光体以预设的发光波长和发光模式,发射光源。
步骤410:对所述至少一个发光体的图像数据进行处理,获得所述至少一个发光体对应的处理结果数据。
其中,处理结果数据中至少包括所述至少一个发光体的中心点的坐标,以及发光波长和发光模式。
步骤420:根据所述至少一个发光体对应的处理结果数据和预设的识别算法,识别所述至少一个发光体,并在识别出所述至少一个发光体后,根据所述至少一个发光体对应的处理结果数据和预设的数据融合算法,计算所述至少一个发光体的空间位置。
执行步骤420时,具体包括:
首先,根据所述至少一个发光体对应的处理结果数据和预设的识别算法,识别所述至少一个发光体。
具体分为以下两种方式:
第一种方式:根据获得的所述至少一个发光体的发光波长,和预设的发光波长与发光体的映射关系,识别所述至少一个发光体。
第二种方式:根据获得的所述至少一个发光体的发光波长和发光模式,以及运动目标连续性检测算法,识别所述至少一个发光体。
然后,识别出所述至少一个发光体后,根据所述至少一个发光体对应的处理结果数据和预设的数据融合算法,计算所述至少一个发光体的空间位置。
具体为:1)根据所述至少一个发光体的中心点的坐标,分别计算所述至少一个发光体相对于相应的摄像装置10的角度信息。
3)若确定所述至少一个发光体被M个摄像装置10拍摄到,则根据所述至少一个发光体分别相对于所述M个摄像装置10的角度信息,以及预设的数据融合算法,计算所述至少一个发光体的空间位置,其中,M为大于1的整数。
进一步地,还包括:根据所述至少一个发光体的空间位置,计算定位模块3的空间位置。
具体可以分为以下两种情况:
第一种情况:若定位模块3包括至少两个发光体,则根据定位模块3中所述至少两个发光体的空间位置和预设的所述至少两个发光体之间的相对位置,计算所述定位模块3的空间位置。
第二种情况:若定位模块3包括一个发光体,则将所述一个发光体的空间位置,作为所述定位模块3的空间位置。
进一步,空间定位方法还包括:
获取定位模块3中多轴陀螺仪检测到的数据,根据接收到的处理结果数据和预设的数据融合算法,以及结合多轴陀螺仪检测到的数据,计算所述至少一个发光体的空间位置。
值得说明的是,本发明实施例中,空间定位方法和上述空间定位***一一对应,因此,针对空间定位方法,这里就不再进行详细赘述了。
综上所述,本发明实施例中,空间定位***,包括:图像信息模块阵列、中央处理模块和至少一个定位模块3,其中,所述图像信息模块阵列包括至少两个图像信息模块1,每个图像信息模块1中包括摄像装置10和计算模块11,每个定位模块3中包括至少一个发光体,具体为:所述摄像装置10,用于拍摄所述至少一个发光体,并将拍摄获得的所述至少一个发光体的图像数据发送给所述计算模块11;所述计算模块11,用于对所述至少一个发光体的图像数据进行处理,获得所述至少一个发光体对应的处理结果数据,以及将所述至少一个发光体对应的处理结果数据发送给中央处理模块2;定位模块3,用于根据发光控制指令,控制所述至少一个发光体发射光源;中央处理模块2,用于根据所述至少一个发光体对应的处理结果数据和预设的识别算法,识别所述至少一个发光体,并在识别出所述至少一个发光体后,根据所述至少一个发光体对应的处理结果数据和预设的数据融合算法,计算所述至少一个发光体的空间位置。这样,采用图像信息模块阵列覆盖定位区域,具有极强的可拓展性,可以很方便地通过增加或减少图像信息模块1数量,来定位任意大小和任意形状的空间,解决了定位范围对摄像装置10的拍摄范围的依赖。并且,通过发光控制指令,对发光体进行控制,进而可以通过多个摄像装置10和数据融合算法以及预设的识别算法,实现对多个发光体的识别和定位。并且,发光体均被多个摄像装置10在各个方向进行拍摄,只要有一侧摄像装置10拍摄到,就可以实现对该发光体的定位,也提升了***的抗遮挡能力,也提高了***定位的精度和鲁棒性,有更广泛的应用场景,可以适用于大范围多目标空间定位的应用场景。
本领域内的技术人员应明白,本发明的实施例可提供为方法、***、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明实施例进行各种改动和变型而不脱离本发明实施例的精神和范围。这样,倘若本发明实施例的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (12)
1.一种空间定位***,其特征在于,包括:图像信息模块阵列、中央处理模块和至少一个定位模块,其中,所述图像信息模块阵列包括至少两个图像信息模块,每个图像信息模块中包括摄像装置和计算模块,每个定位模块中包括至少一个发光体,具体为:
所述摄像装置,用于拍摄所述至少一个发光体,并将拍摄获得的所述至少一个发光体的图像数据发送给所述计算模块;
所述计算模块,用于对所述至少一个发光体的图像数据进行处理,获得所述至少一个发光体对应的处理结果数据,以及将所述至少一个发光体对应的处理结果数据发送给中央处理模块;
定位模块,用于根据发光控制指令,控制所述至少一个发光体发射光源;
中央处理模块,用于根据所述至少一个发光体对应的处理结果数据和预设的识别算法,识别所述至少一个发光体,并在识别出所述至少一个发光体后,根据所述至少一个发光体对应的处理结果数据和预设的数据融合算法,计算所述至少一个发光体的空间位置。
2.如权利要求1所述的***,其特征在于,根据发光控制指令,控制所述至少一个发光体发射光源,定位模块具体用于:
控制所述至少一个发光体以预设的发光波长和发光模式,发射光源。
3.如权利要求2所述的***,其特征在于,所述处理数据中至少包括所述至少一个发光体的发光波长和发光模式;
根据所述至少一个发光体对应的处理结果数据和预设的识别算法,识别所述至少一个发光体,中央处理模块具体用于:
根据获得的所述至少一个发光体的发光波长,和预设的发光波长与发光体的映射关系,识别所述至少一个发光体;或,
根据获得的所述至少一个发光体的发光波长和发光模式,以及预设的运动目标连续性检测算法,识别所述至少一个发光体。
4.如权利要求3所述的***,其特征在于,所述处理结果数据中至少包括所述至少一个发光体的中心点的坐标;
在识别出所述至少一个发光体后,根据所述至少一个发光体对应的处理结果数据和预设的数据融合算法,计算所述至少一个发光体的空间位置,中央处理模块具体用于:
根据所述至少一个发光体的中心点的坐标,分别计算所述至少一个发光体相对于相应的摄像装置的角度信息;
若确定所述至少一个发光体被M个摄像装置拍摄到,则根据所述至少一个发光体分别相对于所述M个摄像装置的角度信息,以及预设的数据融合算法,计算所述至少一个发光体的空间位置;其中,M为大于1的整数。
5.如权利要求3所述的***,其特征在于,中央处理模块还用于:
若所述定位模块包括至少两个发光体,则根据定位模块中所述至少两个发光体的空间位置和预设的所述至少两个发光体之间的相对位置,计算所述定位模块的空间位置;或,
若所述定位模块包括一个发光体,则将所述一个发光体的空间位置,作为所述定位模块的空间位置。
6.如权利要求1-5任一项所述的***,其特征在于,所述定位模块进一步包括:多轴陀螺仪。
所述定位模块,还用于将所述多轴陀螺仪检测到的数据,发送给所述中央处理模块。
所述中央处理模块,还用于根据接收到的处理结果数据和预设的数据融合算法,以及结合多轴陀螺仪检测到的数据,计算所述至少一个发光体的空间位置。
7.一种空间定位方法,其特征在于,包括:
拍摄至少一个发光体,获得所述至少一个发光体的图像数据;
对所述至少一个发光体的图像数据进行处理,获得所述至少一个发光体对应的处理结果数据;
根据所述至少一个发光体对应的处理结果数据和预设的识别算法,识别所述至少一个发光体,并在识别出所述至少一个发光体后,根据所述至少一个发光体对应的处理结果数据和预设的数据融合算法,计算所述至少一个发光体的空间位置。
8.如权利要求7所述的方法,其特征在于,进一步包括:
控制所述至少一个发光体以预设的发光波长和发光模式,发射光源。
9.如权利要求8所述的方法,其特征在于,所述处理数据中至少包括所述至少一个发光体的发光波长和发光模式;
根据所述至少一个发光体对应的处理结果数据和预设的识别算法,识别所述至少一个发光体,具体包括:
根据获得的所述至少一个发光体的发光波长,和预设的发光波长与发光体的映射关系,识别所述至少一个发光体;或,
根据获得的所述至少一个发光体的发光波长和发光模式,以及预设的运动目标连续性检测算法,识别所述至少一个发光体。
10.如权利要求9所述的方法,其特征在于,所述处理结果数据中至少包括所述至少一个发光体的中心点的坐标;
在识别出所述至少一个发光体后,根据所述至少一个发光体对应的处理结果数据和预设的数据融合算法,计算所述至少一个发光体的空间位置,具体包括:
根据所述至少一个发光体的中心点的坐标,分别计算所述至少一个发光体相对于相应的摄像装置的角度信息;
若确定所述至少一个发光体被M个摄像装置拍摄到,则根据所述至少一个发光体分别相对于所述M个摄像装置的角度信息,以及预设的数据融合算法,计算所述至少一个发光体的空间位置;其中,M为大于1的整数。
11.如权利要求9所述的方法,其特征在于,进一步包括:
若定位模块包括至少两个发光体,则根据定位模块中所述至少两个发光体的空间位置和预设的所述至少两个发光体之间的相对位置,计算定位模块的空间位置;或,
若定位模块包括一个发光体,则将所述一个发光体的空间位置,作为定位模块的空间位置。
12.如权利要求11所述的方法,其特征在于,进一步包括:
获取定位模块中多轴陀螺仪检测到的数据,根据接收到的处理结果数据和预设的数据融合算法,以及结合多轴陀螺仪检测到的数据,计算所述至少一个发光体的空间位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710547068.5A CN107545589A (zh) | 2017-07-06 | 2017-07-06 | 一种空间定位***及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710547068.5A CN107545589A (zh) | 2017-07-06 | 2017-07-06 | 一种空间定位***及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107545589A true CN107545589A (zh) | 2018-01-05 |
Family
ID=60970948
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710547068.5A Pending CN107545589A (zh) | 2017-07-06 | 2017-07-06 | 一种空间定位***及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107545589A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109029458A (zh) * | 2018-07-19 | 2018-12-18 | 东莞信大融合创新研究院 | 一种双目视觉定位的方法及*** |
CN111062228A (zh) * | 2018-10-16 | 2020-04-24 | 华北电力大学扬中智能电气研究中心 | 一种led阵列信号检测方法及装置 |
CN113784767A (zh) * | 2019-03-08 | 2021-12-10 | 索尼互动娱乐股份有限公司 | 热电堆阵列融合跟踪 |
CN114136306A (zh) * | 2021-12-01 | 2022-03-04 | 浙江大学湖州研究院 | 一种可拓展的基于uwb和摄像头的相对定位的设备和方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1809801A (zh) * | 2003-06-23 | 2006-07-26 | 亚比恩科技私人有限公司 | 跟踪六个自由度的计算机输入装置 |
CN102169366A (zh) * | 2011-03-18 | 2011-08-31 | 汤牧天 | 三维立体空间中的多目标跟踪方法 |
CN105991929A (zh) * | 2016-06-21 | 2016-10-05 | 浩云科技股份有限公司 | 全空间摄像机外参标定及全空间视频拼接方法 |
CN106326890A (zh) * | 2016-08-24 | 2017-01-11 | 深圳市虚拟现实技术有限公司 | 基于图像识别的空间定位方法及*** |
-
2017
- 2017-07-06 CN CN201710547068.5A patent/CN107545589A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1809801A (zh) * | 2003-06-23 | 2006-07-26 | 亚比恩科技私人有限公司 | 跟踪六个自由度的计算机输入装置 |
CN102169366A (zh) * | 2011-03-18 | 2011-08-31 | 汤牧天 | 三维立体空间中的多目标跟踪方法 |
CN105991929A (zh) * | 2016-06-21 | 2016-10-05 | 浩云科技股份有限公司 | 全空间摄像机外参标定及全空间视频拼接方法 |
CN106326890A (zh) * | 2016-08-24 | 2017-01-11 | 深圳市虚拟现实技术有限公司 | 基于图像识别的空间定位方法及*** |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109029458A (zh) * | 2018-07-19 | 2018-12-18 | 东莞信大融合创新研究院 | 一种双目视觉定位的方法及*** |
CN109029458B (zh) * | 2018-07-19 | 2020-06-30 | 东莞信大融合创新研究院 | 一种双目视觉定位的方法 |
CN111062228A (zh) * | 2018-10-16 | 2020-04-24 | 华北电力大学扬中智能电气研究中心 | 一种led阵列信号检测方法及装置 |
CN113784767A (zh) * | 2019-03-08 | 2021-12-10 | 索尼互动娱乐股份有限公司 | 热电堆阵列融合跟踪 |
CN114136306A (zh) * | 2021-12-01 | 2022-03-04 | 浙江大学湖州研究院 | 一种可拓展的基于uwb和摄像头的相对定位的设备和方法 |
CN114136306B (zh) * | 2021-12-01 | 2024-05-07 | 浙江大学湖州研究院 | 一种可拓展的基于uwb和摄像头的相对定位的设备和方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11392146B2 (en) | Method for detecting target object, detection apparatus and robot | |
CN105841687B (zh) | 室内定位方法和*** | |
CN104634276B (zh) | 三维测量***、拍摄设备和方法、深度计算方法和设备 | |
CN107545589A (zh) | 一种空间定位***及方法 | |
CN104913763B (zh) | 用于创建空间模型的方法和手持测距装置 | |
CN108234984A (zh) | 双目深度相机***和深度图像生成方法 | |
JP2006220521A (ja) | 自己位置計測装置及び自己位置計測方法を実行するためのプログラム | |
CN102788572B (zh) | 一种工程机械吊钩姿态的测量方法、装置及*** | |
CN108628306B (zh) | 机器人行走障碍检测方法、装置、计算机设备和存储介质 | |
KR20160044432A (ko) | 가동 타겟 오브젝트의 위치 탐색을 위한 시스템 및 방법 | |
CN110268224A (zh) | 用于无人机实时位置跟踪的***和方法 | |
CN103593641B (zh) | 基于立体摄像机的物体检测方法和装置 | |
CN105378794A (zh) | 3d拍摄装置、用于建立3d图像的方法和用于构建3d拍摄装置的方法 | |
CN106003052B (zh) | 一种机器人视觉导航地图的创建方法 | |
CN106546230B (zh) | 定位点布置方法及装置、测定定位点三维坐标的方法及设备 | |
CN112200838B (zh) | 一种弹丸轨迹跟踪方法、装置、设备及存储介质 | |
Kuriya et al. | Augmented reality robot navigation using infrared marker | |
JP6410231B2 (ja) | 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム | |
EP3088983B1 (en) | Moving object controller and program | |
JP2010164440A (ja) | 距離画像処理装置および撮影装置 | |
CN106482711B (zh) | 一种基于灰度特征提取和稠密光流法的室内定位方法 | |
JP2005241323A (ja) | 撮像システム及び校正方法 | |
CN110531774A (zh) | 机器人避障方法、装置、机器人及计算机可读存储介质 | |
KR102407802B1 (ko) | 인공신경망 학습 기반의 실내외 3차원 좌표 및 방위 추정 장치 | |
US11441901B2 (en) | Optical surveying instrument |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20200509 Address after: 100020 1207, floor 12, building 1, No. 17 yard, Ritan North Road, Chaoyang District, Beijing Applicant after: Beijing watermelon mutual Entertainment Technology Co., Ltd Address before: 100000 Beijing city Fengtai District South Sanhuan Road two No. 1 Ka Yip Building 1509 floor Applicant before: Wang Fulai |
|
TA01 | Transfer of patent application right | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180105 |
|
RJ01 | Rejection of invention patent application after publication |