CN107941208A - 虚拟现实空间定位方法及*** - Google Patents
虚拟现实空间定位方法及*** Download PDFInfo
- Publication number
- CN107941208A CN107941208A CN201710931796.6A CN201710931796A CN107941208A CN 107941208 A CN107941208 A CN 107941208A CN 201710931796 A CN201710931796 A CN 201710931796A CN 107941208 A CN107941208 A CN 107941208A
- Authority
- CN
- China
- Prior art keywords
- image
- globe
- light
- type luminescence
- luminescence body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 16
- 230000004807 localization Effects 0.000 title claims description 11
- 238000004020 luminiscence type Methods 0.000 claims abstract description 148
- 238000003909 pattern recognition Methods 0.000 claims abstract description 24
- 238000001514 detection method Methods 0.000 claims abstract description 4
- 238000012545 processing Methods 0.000 claims description 35
- 230000033001 locomotion Effects 0.000 claims description 13
- 238000010586 diagram Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000000465 moulding Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明提供一种虚拟现实空间定位的方法,当图像识别装置检测到摄像装置拍摄的图像中的发光装置影像的数量不为零且所述发光装置的影像的数量发生变化时,一个被提前标定的所述发光装置降低光强,所述图像识别装置检测降低光强前后所述摄像装置拍摄的图像,并根据降低光强前后所述摄像装置拍摄的图像标定至少两个所述发光装置与图像中所述发光装置的影像的对应关系。与现有技术相比,本发明利用提前标定第一球形发光体与第二球形发光体,并通过摄像装置拍摄的球形发光体的影像数量发生变化时的光强不同,达到了区分第一球形发光体与第二球形发光体影像的目的,防止定位时发生混淆。
Description
技术领域
本发明涉及虚拟现实领域,更具体地说,涉及一种虚拟现实空间定位方法及***。
背景技术
空间定位一般采用光学或超声波的模式进行定位和测算,通过建立模型来推导待测物体的空间位置。目前在虚拟现实空间定位领域,经常采用的定位方法是在手柄等需要进行定位的部件的顶端设置会发光的球形发光体,利用扫描装置和摄像装置来拍摄球形发光体的影像,并通过计算得出球形发光体的位置,进而得出手柄等需要进行定位的部件的位置。由于大部分情况下空间中需要定位的部件数量超过一个,常常造成运算处理器无法将拍摄图像中的球形发光体影像与实际的硬件正确对应,造成数据的混淆。部分定位装置采用不同颜色的球形发光体来区分不同的硬件,但这又会造成影像识别设备成本大幅增加和处理速度变慢等问题。
本发明的申请人在公开号为CN106568434A的专利公开文本中提出了一种虚拟现实空间定位的方法及***,利用提前标定第一球形发光体与第二球形发光体,并通过摄像装置拍摄的球形发光体的影像数量发生变化时的闪光,达到了区分第一球形发光体与第二球形发光体影像的目的,并起到了防止定位时发生混淆的目的。但是在使用该技术进行空间定位时,如果不对程序进行特定的优化,闪光瞬间处理器会识别不到其中一个球体而报错,使定位过程因为发生错误而中断。因此,在区分两个光球的同时避免这种误报错对定位的影响是稳定定位的需求。
发明内容
为了解决当前虚拟现实设备无法稳定区分左右光球的缺陷,本发明提供一种虚拟现实空间定位的方法,当图像识别装置检测到摄像装置拍摄的图像中的发光装置影像的数量不为零且所述发光装置的影像的数量发生变化时,一个被提前标定的所述发光装置降低光强,所述图像识别装置检测降低光强前后所述摄像装置拍摄的图像,并根据降低光强前后所述摄像装置拍摄的图像标定至少两个所述发光装置与图像中所述发光装置的影像的对应关系。
优选地,当所述摄像装置未开启时,运算处理器默认所述摄像装置拍摄的图像中所述发光装置的影像数量为零。
优选地,当所述图像识别装置检测到所述摄像装置拍摄的图像中所述发光装置的影像的数量不为零且数量发生变化时,所述运算处理器控制被标定的一个所述发光装置降低光强。
优选地,所述处理单元根据降低光强前后所述摄像装置拍摄的图像中第一球形发光体与第二球形发光体与图像中所述发光装置的影像的对应关系,判断所述第一球形发光体与所述第二球形发光体的运动路径。
优选地,所述被提前标定的所述发光装置的光强降低为原光强的50%—90%。
提供一种虚拟现实空间定位***,包括处理单元和定位单元,所述处理单元包括摄像装置、图像识别装置,所述摄像装置与所述图像识别装置电性连接,所述定位单元包括至少两个被提前标定的发光装置,所述摄像装置可以拍摄所述发光装置的图像,所述图像识别装置可以识别所述摄像装置拍摄的图像,所述处理单元进一步包括运算处理器,所述运算处理器与所述图像识别装置电性连接。
优选地,所述处理单元进一步包括处理端无线传输模块,所述处理端无线传输模块与所述运算处理器电性连接,所述定位单元进一步包括移动端无线传输模块,所述处理端无线传输模块与所述移动端无线传输模块通过无线传输的方式传递信息。
优选地,所述定位单元进一步包括移动端嵌入式控制模块,所述移动端嵌入式控制模块、所述发光装置和所述移动端无线传输模块分别电性连接。
优选地,所述定位单元包括第一手柄和第二手柄,所述第一手柄上设置有第一球形发光体,所述第二手柄上设置有第二球形发光体。
与现有技术相比,本发明利用提前标定第一球形发光体与第二球形发光体,并通过摄像装置拍摄的球形发光体的影像数量发生变化时的光强不同,达到了区分第一球形发光体与第二球形发光体影像的目的,防止定位时发生混淆。通过限定影像数量不为零作为第一球形发光体降低光强的条件,进一步简化了处理单元的判断条件。利用图像识别装置来检测降低光强前后摄像装置拍摄的图像,可以通过对比图像来清楚地标定第一球形发光体与第二球形发光体的影像,十分方便,相对于利用不同光频检测第一球形发光体与第二球形发光体影像,大幅降低了成本,有一定的经济意义。通过定义摄像装置未开启时,运算处理器默认摄像装置拍摄的图像中球形发光体的影像数量为零,保证了摄像装置开启的瞬间就能对进入拍摄图像中的球形发光体进行标定,保证了定位方法的完整性。无线传输可以方便手持设备与处理单元的沟通,通过设置移动端嵌入式控制模块可以使处理单元的命令得到有效的和有序的执行。标定第一球形发光体与第二球形发光体可以帮助处理单元计算出第一球形发光体与第二球形发光体的运动路径。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明虚拟现实空间定位的***模块示意图;
图2是摄像装置拍摄发光装置图像示意图之一;
图3是摄像装置拍摄发光装置图像示意图之二;
图4是重合状态发光装置识别示意图;
图5是“0-1”状态发光装置识别示意图;
图6是“0-2”状态发光装置识别示意图;
图7是“1-2”状态发光装置识别示意图;
图8是“2-1”状态发光装置识别示意图。
具体实施方式
为了解决当前虚拟现实设备无法稳定区分左右光球的缺陷,本发明提供一种虚拟现实空间定位方法及***
为了对本发明的技术特征、目的和效果有更加清楚的理解,现对照附图详细说明本发明的具体实施方式。
请参阅图1,本发明虚拟现实空间定位***包括处理单元10和定位单元20,处理单元10包括摄像装置11、图像识别装置13、运算处理器15和处理端无线传输模块17,图像识别设备13与摄像装置11和运算处理器15电性连接,运算处理器15与处理端无线传输模块17电性连接。摄像装置11可以拍摄图像,并将所拍摄的图像传输到图像识别装置13,图像识别装置13可以对摄像装置11拍摄的图像进行处理,并将处理结果传输至运算处理器15,运算处理器15对图像识别装置13传来的信息进行进一步的处理。定位单元20包括至少两个独立的发光装置21、移动端嵌入式控制模块22、姿态测量装置23、电源模块24、操作装置25和移动端无线传输模块27,移动端嵌入式控制模块22与电源模块24电性连接,发射端嵌入式控制模块22与电源模块24分别与发光装置21、姿态测量装置23、操作装置25和移动端无线传输模块27电性连接。处理端无线传输模块17可以与移动端无线传输模块27通过无线连接的方式传递信息。姿态测量装置23可以测量定位单元20在空间的姿态和角度信息,操作装置25可以由使用者操作并发出命令信息,姿态测量装置23测得的相关数据以及操作装置25发出的命令信息可以通过电信号的方式传递到移动端嵌入式控制模块22,移动端嵌入式控制模块22可以将上述信息通过移动端无线传输模块27传递到处理端无线传输模块17,处理端无线传输模块17可以将接收到的数据通过电信号的方式传递到运算处理器15进行处理。
请参阅图2,图2示例性地示出了以第一手柄201和第二手柄202为实施例的定位单元20,在该实施例中,定位单元包括球形发光体210,球形发光体210包括第一球形发光体211和第二球形发光体212,第一球形发光体211设置在第一手柄201上,第二球形发光体212设置在第二手柄202上,第一球形发光体211和第二球形发光体212在定位时可以发光。通过提前标定第一球形发光体211和第二球形发光体212可以避免混淆,方便完成定位。摄像装置11可以拍摄图像,图片30为摄像机11拍摄的定位单元20的图像,其中,第一影像301为第一球形发光体211的影像,第二影像302为第二球形发光体212的影像,在图片30中,第一球形发光体211的影像为完整的球形影像,第二球形发光体212由于只被摄像装置11拍摄到一部分,因此第二影像302为不完整的球形影像。
请参阅图3,图3示出了摄像装置11拍摄定位单元20的一种特殊情况。当摄像装置11、第一球形发光体211、第二球形发光体212在一条直线上时,有可能出现摄像装置11拍摄的图片30只有一个第三影像303的情况,这是由于第一球形发光体211遮挡了第二球形发光体212的光线,在这种情况下,由于第二发光体212影像的丢失,可能造成定位出现问题。
请参阅图4,图4所展示的图像状态我们称为“重合”状态。定位单元20的影像第四影像304和第五影像305出现在图片30中,由于定位单元20的运动,第四影像304和第五影像305分别运动,这时,通过识别前后两张摄像装置11拍摄的图片30的图像,运算处理器15可以跟踪第四影像304和第五影像305的运动。当第一球形发光体211遮挡了第二球形发光体212的光线或者第二球形发光体212遮挡了第一球形发光体211的光线时,图片30中只呈现一个第六影像306,此时,由于两个跟踪目标重合,运算处理器15无法分辨第六影像306是第四影像304移动的结果还是第五影像305移动的结果。当定位单元20继续运动时,第一球形发光体211和第二球形发光体212分开,图片30中出现了第七影像307和第八影像308。其中,第七影像307可能是第四影像304所对应的球形发光体210的影像,也可能是第五影像305对应的球形发光体210的影像,第八影像308同理,因此,对于一般的定位装置,识别对应球形发光体210的影像就存在可能混淆的问题。
请参阅图5—图8,图5—图8中,我们通过四种状态变化来解决对应球形发光体的混淆问题。当图片30中的球形发光体210的影像的数量发生变化且图片30中球形发光体210的影像数量不为零时,第一球形发光体211适当降低光强,以便图像识别装置13既可以区分第一球形发光体211和第二球形发光体212,又不会因光强太低而检测不到第一球形发光体211。当光强降低较多时,图像识别装置13可能无法检测到清晰的球形发光体210的影像,会影响测量结果;当光强降低较少时,图像识别装置13有可能无法区分第一球形发光体211和第二球形发光体212。经过测试,当球形发光体的光强降低到原光强的50%—90%时,图像识别装置13可以较好地完成区分球形发光体210和检测球形发光体210影像的功能。在这个过程中,球形发光体210的影像数量和光强可以由图像识别装置13进行识别,当图像识别装置13检测到图片30中的球形发光体210的影像的数量发生变化且图片30中球形发光体210的影像数量不为零时,运算处理器15发送命令到处理端无线传输模块17,处理端无线传输模块17通过无线传输的方式经由移动端无线传输模块27将命令信息传递到移动端嵌入式控制模块22,移动端嵌入式控制模块22控制第一球形发光体211适当降低光强。图像识别装置13根据降低光强前后图片30的变化锁定第一球形发光体211对应的影像。为了使图片30中球形发光体210的影像与第一球形发光体211和第二球形发光体212保持最大程度的对应,我们定义摄像装置11未开启时运算处理器15默认球形发光体210的影像数量为零。
请参阅图5,我们称图5所展示的图片30的变化状态为“0-1”状态,在“0-1”状态下,图片30中球形发光体210的影像数量从0变成了1,此时,图像识别装置13检测到图片30中的球形发光体210的影像的数量发生变化且图片30中球形发光体210的影像数量不为零,第一球形发光体211降低光强,同时图像识别装置13检测图片30的变化,当第九影像309在降低光强期间亮度降低时,第九影像309即为第一球形发光体211对应的影像;当第九影像309在降低光强期间亮度没有降低时,第九影像309即为第二球形发光体212对应的影像。
请参阅图6,我们称图6所展示的图片30的变化状态为“0-2”状态,在“0-2”状态下,图片30中球形发光体210的影像数量从0变成了2,此时,图像识别装置13检测到图片30中的球形发光体210的影像的数量发生变化且图片30中球形发光体210的影像数量不为零,第一球形发光体211降低光强,同时图像识别装置13检测图片30的变化,当第十影像310在降低光强期间亮度降低而第十一影像311在降低光强期间亮度不降低时,第十影像310即为第一球形发光体211对应的影像,第十一影像311即为第二球形发光体212的影像;当第十影像310在降低光强期间亮度不降低而第十一影像311在降低光强期间亮度降低时,第十影像310即为第二球形发光体212对应的影像,第十一影像311即为第一球形发光体211对应的影像。
请参阅图7,我们称图7所展示的图片30的变化状态为“1-2”状态,在“1-2”状态下,图片30中球形发光体210的影像数量从1变成了2,此时,图像识别装置13检测到图片30中的球形发光体210的影像的数量发生变化且图片30中球形发光体210的影像数量不为零,第一球形发光体211降低光强,同时图像识别装置13检测图片30的变化,当第十三影像313在降低光强期间亮度降低而第十四影像314在降低光强期间亮度不降低时,第十三影像313即为第一球形发光体211对应的影像,第十四影像314即为第二球形发光体212的影像;当第十三影像313在降低光强期间亮度不降低而第十四影像314在降低光强期间亮度降低时,第十三影像313即为第二球形发光体212对应的影像,第十四影像314即为第一球形发光体211对应的影像。由于第十二影像312的对应关系已提前确定,在第十三影像313和第十四影像314的对应关系确定后,我们也可以对应知道第十二影像312的移动形成了第十三影像313还是第十四影像314。
请参阅图8,我们称图8所展示的图片30的变化状态为“2-1”状态,在“2-1”状态下,图片30中球形发光体210的影像数量从2变成了1,此时,图像识别装置13检测到图片30中的球形发光体210的影像的数量发生变化且图片30中球形发光体210的影像数量不为零,第一球形发光体211降低光强,同时图像识别装置13检测图片30的变化,当第十七影像317在降低光强期间亮度降低时,第十七影像317即为第一球形发光体211对应的影像;当第十七影像317在降低光强期间亮度不降低时,第十七影像317即为第二球形发光体212对应的影像。由于第十五影像315和第十六影像316的对应关系已提前确定,在第十七影像317的对应关系确定后,我们也可以对应知道第十七影像317是第十五影像315还是第十六影像316运动的结果。
我们再来看“重合”状态,“重合”状态是一个“2-1”状态和“1-2”状态的组合。第四影像304和第五影像305的状态已提前确定,我们假定第四影像304为第一球形发光体211对应的影像,第五影像305为第二球形发光体212对应的影像,当第一球形发光体211遮挡了第二球形发光体212的光线或者第二球形发光体212遮挡了第一球形发光体211的光线时,图片30中只呈现一个第六影像306,图片30中球形发光体210的影像数量从2变成了1,此时,图像识别装置13检测到图片30中的球形发光体210的影像的数量发生变化且图片30中球形发光体210的影像数量不为零,第一球形发光体211降低光强,同时图像识别装置13检测图片30的变化,当第六影像306在降低光强期间亮度降低时,第六影像306即为第一球形发光体211对应的影像;当第六影像306在降低光强期间亮度不降低时,第六影像306即为第二球形发光体212对应的影像;当定位单元20继续运动时,第一球形发光体211和第二球形发光体212分开,图片30中出现了第七影像307和第八影像308,此时,第一球形发光体211维持光强降低的状态,当第七影像307亮度较低而第八影像308亮度正常时,第七影像307即为第一球形发光体211对应的影像,第八影像308即为第二球形发光体212的影像;当第七影像307亮度正常而第八影像308亮度降低时,第七影像307即为第二球形发光体212对应的影像,第八影像308即为第一球形发光体211对应的影像。作为示例,我们假定第七影像307为第二球形发光体212对应的影像,第八影像308为第一球形发光体211对应的影像,则第一球形发光体211的影像位置由第四影像304的位置移动到第六影像306的位置,再移动到第八影像308的位置;第二球形发光体212的影像位置由第五影像305的位置移动到第六影像306的位置,再移动到第七影像307的位置。这样,处理单元10就可以判断第一球形发光体211与第二球形发光体212的运动路径。
与现有技术相比,本发明利用提前标定第一球形发光体211与第二球形发光体212,并通过摄像装置11拍摄的球形发光体210的影像数量发生变化时的光强不同,达到了区分第一球形发光体211与第二球形发光体212影像的目的,防止定位时发生混淆。通过限定影像数量不为零作为第一球形发光体211降低光强的条件,进一步简化了处理单元20的判断条件。利用图像识别装置13来检测降低光强前后摄像装置11拍摄的图像,可以通过对比图像来清楚地标定第一球形发光体211与第二球形发光体212的影像,十分方便,相对于利用不同光频检测第一球形发光体211与第二球形发光体212影像,大幅降低了成本,有一定的经济意义。通过定义摄像装置11未开启时,运算处理器15默认摄像装置11拍摄的图像中球形发光体210的影像数量为零,保证了摄像装置11开启的瞬间就能对进入拍摄图像中的球形发光体210进行标定,保证了定位方法的完整性。无线传输可以方便手持设备与处理单元20的沟通,通过设置移动端嵌入式控制模块22可以使处理单元20的命令得到有效的和有序的执行。标定第一球形发光体211与第二球形发光体212可以帮助处理单元20计算出第一球形发光体211与第二球形发光体212的运动路径。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。
Claims (9)
1.一种虚拟现实空间定位的方法,其特征在于,当图像识别装置检测到摄像装置拍摄的图像中的发光装置影像的数量不为零且所述发光装置的影像的数量发生变化时,一个被提前标定的所述发光装置降低光强,所述图像识别装置检测降低光强前后所述摄像装置拍摄的图像,并根据降低光强前后所述摄像装置拍摄的图像标定所述发光装置与图像中所述发光装置的影像的对应关系。
2.根据权利要求1所述的虚拟现实空间定位方法,其特征在于,当所述摄像装置未开启时,运算处理器默认所述摄像装置拍摄的图像中所述发光装置的影像数量为零。
3.根据权利要求2所述的虚拟现实空间定位方法,其特征在于,当所述图像识别装置检测到所述摄像装置拍摄的图像中所述发光装置的影像的数量不为零且数量发生变化时,所述运算处理器控制被标定的一个所述发光装置降低光强。
4.根据权利要求3所述的虚拟现实空间定位方法,其特征在于,所述处理单元根据降低光强前后所述摄像装置拍摄的图像中第一球形发光体与第二球形发光体与图像中所述发光装置的影像的对应关系,判断所述第一球形发光体与所述第二球形发光体的运动路径。
5.根据权利要求1—4任一项所述的虚拟现实空间定位方法,其特征在于,所述被提前标定的所述发光装置的光强降低为原光强的50%—90%。
6.一种虚拟现实空间定位***,其特征在于,包括处理单元和定位单元,所述处理单元包括摄像装置、图像识别装置,所述摄像装置与所述图像识别装置电性连接,所述定位单元包括至少两个被提前标定的发光装置,所述摄像装置可以拍摄所述发光装置的图像,所述图像识别装置可以识别所述摄像装置拍摄的图像,所述处理单元进一步包括运算处理器,所述运算处理器与所述图像识别装置电性连接。
7.根据权利要求6所述的虚拟现实空间定位***,其特征在于,所述处理单元进一步包括处理端无线传输模块,所述处理端无线传输模块与所述运算处理器电性连接,所述定位单元进一步包括移动端无线传输模块,所述处理端无线传输模块与所述移动端无线传输模块通过无线传输的方式传递信息。
8.根据权利要求7所述的虚拟现实空间定位***,其特征在于,所述定位单元进一步包括移动端嵌入式控制模块,所述移动端嵌入式控制模块、所述发光装置和所述移动端无线传输模块分别电性连接。
9.根据权利要求8所述的虚拟现实空间定位***,其特征在于,所述定位单元包括第一手柄和第二手柄,所述第一手柄上设置有第一球形发光体,所述第二手柄上设置有第二球形发光体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710931796.6A CN107941208A (zh) | 2017-10-09 | 2017-10-09 | 虚拟现实空间定位方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710931796.6A CN107941208A (zh) | 2017-10-09 | 2017-10-09 | 虚拟现实空间定位方法及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107941208A true CN107941208A (zh) | 2018-04-20 |
Family
ID=61936105
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710931796.6A Pending CN107941208A (zh) | 2017-10-09 | 2017-10-09 | 虚拟现实空间定位方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107941208A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108703588A (zh) * | 2018-05-28 | 2018-10-26 | 苏州创存数字科技有限公司 | 一种基于增强现实的智能学步设备及其工作方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020093666A1 (en) * | 2001-01-17 | 2002-07-18 | Jonathan Foote | System and method for determining the location of a target in a room or small area |
US20100290674A1 (en) * | 2009-05-14 | 2010-11-18 | Samsung Electronics Co., Ltd. | 3D image processing apparatus improving depth accuracy of region of interest and method |
CN106019589A (zh) * | 2016-06-25 | 2016-10-12 | 深圳市虚拟现实科技有限公司 | 一种自动调整光学***的近眼显示装置 |
CN106568434A (zh) * | 2016-11-08 | 2017-04-19 | 深圳市虚拟现实科技有限公司 | 虚拟现实空间定位方法及*** |
CN106597864A (zh) * | 2016-12-15 | 2017-04-26 | 北京国承万通信息科技有限公司 | 虚拟现实***和智能家居*** |
CN106772389A (zh) * | 2016-11-07 | 2017-05-31 | 纵目科技(上海)股份有限公司 | 一种库位检测方法、***、及移动设备 |
-
2017
- 2017-10-09 CN CN201710931796.6A patent/CN107941208A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020093666A1 (en) * | 2001-01-17 | 2002-07-18 | Jonathan Foote | System and method for determining the location of a target in a room or small area |
US20100290674A1 (en) * | 2009-05-14 | 2010-11-18 | Samsung Electronics Co., Ltd. | 3D image processing apparatus improving depth accuracy of region of interest and method |
CN106019589A (zh) * | 2016-06-25 | 2016-10-12 | 深圳市虚拟现实科技有限公司 | 一种自动调整光学***的近眼显示装置 |
CN106772389A (zh) * | 2016-11-07 | 2017-05-31 | 纵目科技(上海)股份有限公司 | 一种库位检测方法、***、及移动设备 |
CN106568434A (zh) * | 2016-11-08 | 2017-04-19 | 深圳市虚拟现实科技有限公司 | 虚拟现实空间定位方法及*** |
CN106597864A (zh) * | 2016-12-15 | 2017-04-26 | 北京国承万通信息科技有限公司 | 虚拟现实***和智能家居*** |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108703588A (zh) * | 2018-05-28 | 2018-10-26 | 苏州创存数字科技有限公司 | 一种基于增强现实的智能学步设备及其工作方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107598977B (zh) | 使用视觉和激光测距仪实现机器人自动示教的方法和*** | |
KR101902283B1 (ko) | 물체의 3차원 정보 획득을 위한 카메라 센싱 장치 및 이를 이용한 가상 골프 시뮬레이션 장치 | |
EP1462984A2 (en) | Authentication object image pick-up device and method thereof | |
CN105872357A (zh) | 图像处理方法和装置*** | |
CN106568434A (zh) | 虚拟现实空间定位方法及*** | |
CN107728617A (zh) | 多目在线标定方法、可移动机器人及*** | |
CN104296658B (zh) | 一种基于虚拟双目视觉的石壁***孔检测与定位装置及定位方法 | |
CN111993420A (zh) | 一种固定式双目视觉3d引导上件*** | |
CN107941208A (zh) | 虚拟现实空间定位方法及*** | |
CN112529856A (zh) | 确定操作对象位置的方法、机器人和自动化*** | |
CN109801336A (zh) | 基于可见光及红外光视觉的机载目标定位***及方法 | |
US20170352160A1 (en) | Detection method, display apparatus, and detection system | |
WO2009100778A1 (en) | Improved rotation independent face detection. | |
US20210319218A1 (en) | Information processing apparatus and object detection method | |
CN106131454A (zh) | 一种影像撷取***及影像撷取方法 | |
CN106923837A (zh) | 彩色关节运动测试***及方法 | |
CN104704449B (zh) | 用户界面设备和用户界面方法 | |
CN108632504A (zh) | 多镜头光学装置 | |
CN204165516U (zh) | 一种基于双目视觉的石壁***孔检测与定位装置 | |
CN113597362B (zh) | 用于确定机器人坐标系与可移动装置坐标系之间的关系的方法和控制装置 | |
CN104296657B (zh) | 一种基于双目视觉的石壁***孔检测与定位装置及定位方法 | |
Soetedjo et al. | Detecting laser spot in shooting simulator using an embedded camera | |
CN108781258B (zh) | 环境信息确定方法、装置、机器人及存储介质 | |
CN114705691B (zh) | 一种工业机器视觉控制方法及装置 | |
CN111625001B (zh) | 机器人的控制方法及装置、工业机器人 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20180420 |
|
WD01 | Invention patent application deemed withdrawn after publication |