CN110139023B - 一种用于可穿戴设备的定位方法及可穿戴设备 - Google Patents
一种用于可穿戴设备的定位方法及可穿戴设备 Download PDFInfo
- Publication number
- CN110139023B CN110139023B CN201811151803.1A CN201811151803A CN110139023B CN 110139023 B CN110139023 B CN 110139023B CN 201811151803 A CN201811151803 A CN 201811151803A CN 110139023 B CN110139023 B CN 110139023B
- Authority
- CN
- China
- Prior art keywords
- wearable device
- environment
- image
- indoor
- shooting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 238000010586 diagram Methods 0.000 claims description 62
- 238000004590 computer program Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 6
- 238000010191 image analysis Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000020169 heat generation Effects 0.000 description 1
- 239000011810 insulating material Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/33—Services specially adapted for particular environments, situations or purposes for indoor environments, e.g. buildings
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W64/00—Locating users or terminals or network equipment for network management purposes, e.g. mobility management
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
- Studio Devices (AREA)
Abstract
一种用于可穿戴设备的定位方法及可穿戴设备,可穿戴设备包括智能主机,智能主机相对的顶侧和底侧各自设有一个拍摄模组,智能主机能够发生转动以实现同时调整两个拍摄模组的拍摄方向,控制两个拍摄模组分别执行拍摄操作,得到第一图像以及第二图像,第一图像为一个拍摄模组拍摄到的可穿戴设备所处的当前环境一侧的图像,第二图像为另一个拍摄模组拍摄到的可穿戴设备所处的当前环境另一侧的图像;根据第一图像和第二图像确定可穿戴设备所处的当前环境类别;当前环境类别为室内环境时,控制可穿戴设备利用WIFI定位;当前环境类别为室外环境时,控制可穿戴设备利用GPS定位。实施本发明实施例,能够提高定位精准度。
Description
技术领域
本发明涉及可穿戴设备技术领域,尤其涉及一种用于可穿戴设备的定位方法及可穿戴设备。
背景技术
目前,为了满足对于可穿戴设备的定位需求,应用于可穿戴设备的定位方式也多种多样。其中,针对不同的环境场景存在不同的定位方式,例如,在室外场景通常使用全球定位***(Global Positioning System,GPS)来实现定位,在室内场景通常使用WIFI来实现定位。但是,在实践中发现,对于室内场景与室外场景的区分方式尚不能达到所需的区分精准度,例如经常会出现在室内场景使用GPS定位的情况,从而导致定位精准度不高的问题。
发明内容
本发明实施例公开一种用于可穿戴设备的定位方法及可穿戴设备,能够提高定位精准度。
本发明实施例第一方面公开一种用于可穿戴设备的定位方法,所述可穿戴设备包括智能主机,所述智能主机相对的顶侧和底侧各自设有一个拍摄模组,所述智能主机能够发生转动以实现同时调整两个拍摄模组的拍摄方向,所述方法包括:
控制所述两个拍摄模组分别执行拍摄操作,得到第一图像以及第二图像,所述第一图像为一个拍摄模组拍摄到的所述可穿戴设备所处的当前环境一侧的图像,所述第二图像为另一个拍摄模组拍摄到的所述可穿戴设备所处的当前环境另一侧的图像;
根据所述第一图像和所述第二图像确定所述可穿戴设备所处的当前环境类别,所述当前环境类别为室内环境或室外环境;
当所述当前环境类别为所述室内环境时,控制所述可穿戴设备利用WIFI定位;
当所述当前环境类别为所述室外环境时,控制所述可穿戴设备利用全球定位***GPS定位。
作为一种可选的实施方式,在本发明实施例第一方面中,所述根据所述第一图像和所述第二图像确定所述可穿戴设备所处的当前环境类别,包括:
提取所述第一图像和所述第二图像所包括的物体特征,判断所述物体特征与预设室内物体特征的匹配度是否大于预设匹配度;
当判断出所述物体特征与所述预设室内物体特征的匹配度大于所述预设匹配度时,确定所述可穿戴设备所处的当前环境类别为室内环境;
当判断出所述物体特征与所述预设室内物体特征的匹配度小于或者等于所述预设匹配度时,确定所述可穿戴设备所处的当前环境类别为室外环境。
作为一种可选的实施方式,在本发明实施例第一方面中,在所述判断所述物体特征与预设室内物体特征的匹配度是否大于预设匹配度之前,所述方法还包括:
获取所述可穿戴设备的历史室内环境信息;所述历史室内环境信息包括若干个室内环境与每一所述室内环境对应的用户所处时长;
按照用户所处时长由高至低的顺序从所述历史室内环境信息中确定目标室内环境,将所述目标室内环境所包括的室内物体特征设置为预设室内物体特征。
作为一种可选的实施方式,在本发明实施例第一方面中,在所述控制所述可穿戴设备利用GPS定位之前,所述方法还包括:
当所述可穿戴设备所处的环境为所述室外环境时,根据所述可穿戴设备的位姿信息预测所述可穿戴设备下一时刻所处的环境;
当预测出所述可穿戴设备下一时刻所处的环境为所述室外环境时,执行所述的控制所述可穿戴设备利用GPS定位;
当预测出所述可穿戴设备下一时刻所处的环境为所述室内环境时,执行所述的控制所述可穿戴设备利用WIFI定位。
作为一种可选的实施方式,在本发明实施例第一方面中,在所述控制所述可穿戴设备利用WIFI定位之前,所述方法还包括:
当所述可穿戴设备所处的环境为所述室内环境时,根据所述可穿戴设备的位姿信息预测所述可穿戴设备下一时刻所处的环境;
当预测出所述可穿戴设备下一时刻所处的环境为所述室内环境时,执行所述的控制所述可穿戴设备利用WIFI定位;
当预测出所述可穿戴设备下一时刻所处的环境为所述室外环境时,执行所述的控制所述可穿戴设备利用GPS定位。
本发明实施例第二方面公开一种可穿戴设备,所述可穿戴设备包括智能主机,所述智能主机相对的顶侧和底侧各自设有一个拍摄模组,所述智能主机能够发生转动以实现同时调整两个拍摄模组的拍摄方向,所述智能主机包括:
拍摄单元,用于控制所述两个拍摄模组分别执行拍摄操作,得到第一图像以及第二图像,所述第一图像为一个拍摄模组拍摄到的所述可穿戴设备所处的当前环境一侧的图像,所述第二图像为另一个拍摄模组拍摄到的所述可穿戴设备所处的当前环境另一侧的图像;
确定单元,用于根据所述第一图像和所述第二图像确定所述可穿戴设备所处的当前环境类别,所述当前环境类别为室内环境或室外环境;
第一控制单元,用于当所述当前环境类别为所述室内环境时,控制所述可穿戴设备利用WIFI定位;
第二控制单元,用于当所述当前环境类别为所述室外环境时,控制所述可穿戴设备利用全球定位***GPS定位。
作为一种可选的实施方式,在本发明实施例第二方面中,所述确定单元包括:
提取子单元,用于提取所述第一图像和所述第二图像所包括的物体特征;
判断子单元,用于判断所述物体特征与预设室内物体特征的匹配度是否大于预设匹配度;
确定子单元,用于当所述判断子单元判断出所述物体特征与所述预设室内物体特征的匹配度大于所述预设匹配度时,确定所述可穿戴设备所处的当前环境类别为室内环境;当所述判断子单元判断出所述物体特征与所述预设室内物体特征的匹配度小于或者等于所述预设匹配度时,确定所述可穿戴设备所处的当前环境类别为室外环境。
作为一种可选的实施方式,在本发明实施例第二方面中,所述智能主机还包括:
获取单元,用于在所述判断子单元判断所述物体特征与预设室内物体特征的匹配度是否大于预设匹配度之前,获取所述可穿戴设备的历史室内环境信息;所述历史室内环境信息包括若干个室内环境与每一所述室内环境对应的用户所处时长;
设置单元,用于按照用户所处时长由高至低的顺序从所述历史室内环境信息中确定目标室内环境,并将所述目标室内环境所包括的室内物体特征设置为预设室内物体特征。
作为一种可选的实施方式,在本发明实施例第二方面中,所述智能主机还包括:
第一预测单元,用于在所述第二控制单元控制所述可穿戴设备利用GPS定位之前,当所述可穿戴设备所处的环境为所述室外环境时,根据所述可穿戴设备的位姿信息预测所述可穿戴设备下一时刻所处的环境;当预测出所述可穿戴设备下一时刻所处的环境为所述室外环境时,触发所述第二控制单元执行所述的控制所述可穿戴设备利用GPS定位;当预测出所述可穿戴设备下一时刻所处的环境为所述室内环境时,触发所述第一控制单元执行所述的控制所述可穿戴设备利用WIFI定位。
作为一种可选的实施方式,在本发明实施例第二方面中,所述智能主机还包括:
第二预测单元,用于在所述第一控制单元控制所述可穿戴设备利用WIFI定位之前,当所述可穿戴设备所处的环境为所述室内环境时,根据所述可穿戴设备的位姿信息预测所述可穿戴设备下一时刻所处的环境;当预测出所述可穿戴设备下一时刻所处的环境为所述室内环境时,触发所述第一控制单元执行所述的控制所述可穿戴设备利用WIFI定位;当预测出所述可穿戴设备下一时刻所处的环境为所述室外环境时,触发所述第二控制单元执行所述的控制所述可穿戴设备利用GPS定位。
本发明实施例第三方面公开一种可穿戴设备,包括:
存储有可执行程序代码的存储器;
与所述存储器耦合的处理器;
所述处理器调用所述存储器中存储的所述可执行程序代码,执行本发明实施例第一方面公开的一种用于可穿戴设备的定位方法。
本发明实施例第四方面公开一种计算机可读存储介质,其存储计算机程序,其中,所述计算机程序使得计算机执行本发明实施例第一方面公开的一种用于可穿戴设备的定位方法。
本发明实施例第五方面公开一种计算机程序产品,当所述计算机程序产品在计算机上运行时,使得所述计算机执行第一方面的任意一种方法的部分或全部步骤。
本发明实施例第六方面公开一种应用发布平台,所述应用发布平台用于发布计算机程序产品,其中,当所述计算机程序产品在计算机上运行时,使得所述计算机执行第一方面的任意一种方法的部分或全部步骤。
与现有技术相比,本发明实施例具有以下有益效果:
本发明实施例中,可穿戴设备包括智能主机,智能主机相对的顶侧和底侧各自设有一个拍摄模组,智能主机能够发生转动以实现同时调整两个拍摄模组的拍摄方向,控制两个拍摄模组分别执行拍摄操作,得到第一图像以及第二图像,第一图像为一个拍摄模组拍摄到的可穿戴设备所处的当前环境一侧的图像,第二图像为另一个拍摄模组拍摄到的可穿戴设备所处的当前环境另一侧的图像;根据第一图像和第二图像确定可穿戴设备所处的当前环境类别;当前环境类别为室内环境时,控制可穿戴设备利用WIFI定位;当前环境类别为室外环境时,控制可穿戴设备利用GPS定位。这一过程可以利用可穿戴设备的双拍摄模组结构拍摄可穿戴设备所处的当前环境两侧的图像,根据该图像进行精确的图像分析,得到当前环境类别,从而精准地区分室内场景与室外场景,在不同场景使用不同的定位策略,进而提高定位精准度。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例公开的一种可穿戴设备的结构示意图;
图2是图1所示的可穿戴设备包括的智能主机相对底部支架转动90°后的结构示意图;
图3是图2的另一视角的示意图;
图4是本发明实施例公开的一种用于可穿戴设备的定位方法的流程示意图;
图5是本发明实施例公开的另一种用于可穿戴设备的定位方法的流程示意图;
图6是本发明实施例公开的又一种用于可穿戴设备的定位方法的流程示意图;
图7是本发明实施例公开的一种可穿戴设备的结构示意图;
图8是本发明实施例公开的另一种可穿戴设备的结构示意图;
图9是本发明实施例公开的又一种可穿戴设备的结构示意图;
图10是本发明实施例公开的又一种可穿戴设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明中,术语“上”、“下”、“左”、“右”、“前”、“后”、“顶”、“底”、“内”、“外”、“中”、“竖直”、“水平”、“横向”、“纵向”等指示的方位或位置关系为基于附图所示的方位或位置关系。这些术语主要是为了更好地描述本发明及其实施例,并非用于限定所指示的装置、元件或组成部分必须具有特定方位,或以特定方位进行构造和操作。
并且,上述部分术语除了可以用于表示方位或位置关系以外,还可能用于表示其他含义,例如术语“上”在某些情况下也可能用于表示某种依附关系或连接关系。对于本领域普通技术人员而言,可以根据具体情况理解这些术语在本发明中的具体含义。
此外,术语“安装”、“设置”、“设有”、“连接”、“相连”应做广义理解。例如,可以是固定连接,可拆卸连接,或整体式构造;可以是机械连接,或电连接;可以是直接相连,或者是通过中间媒介间接相连,又或者是两个装置、元件或组成部分之间内部的连通。对于本领域普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
此外,术语“第一”、“第二”等主要是用于区分不同的装置、元件或组成部分(具体的种类和构造可能相同也可能不同),并非用于表明或暗示所指示装置、元件或组成部分的相对重要性和数量。除非另有说明,“多个”的含义为两个或两个以上。
下面将结合实施例和附图对本发明实施例的技术方案作进一步的说明。
为了更好理解本发明实施例公开的一种用于可穿戴设备的定位方法,下面先介绍本发明实施例公开的一种可穿戴设备。请参阅图1-图3,本发明实施例公开的一种可穿戴设备可以包括:底部支架10、智能主机20以及侧带30,底部支架10连接于侧带30的两侧带端部之间。智能主机20的顶侧20a与智能主机20的底侧20b相对,并且智能主机20的顶侧20a设有一个拍摄模组22,智能主机20的底侧20b设有另一个拍摄模组23。智能主机20的一端通过第一转轴21与底部支架10的第一端转动连接,智能主机20可以相对底部支架10转动不同的角度,从而使得一个拍摄模组22、另一个拍摄模组23可以获得不同的拍摄方向。其中,侧带30的一个侧带端部通过第一转轴21轴接于底部支架10的第一端,而侧带30的另一个侧带端部连接底部支架10的第二端。
在本发明实施例公开的可穿戴设备中,通过上述所描述的结构,可穿戴设备包括的智能主机20能够在可穿戴设备包括的侧带30的两侧带端部之间发生转动以实现同时调整两个拍摄模组(即一个拍摄模组22和另一个拍摄模组23)的拍摄方向。其中,通过第一转轴21可以实现智能主机20相对底部支架10的转动,从而使得设于智能主机20的一个拍摄模组22、另一个拍摄模组23也能随着智能主机20的转动而获得不同的拍摄方向,这不仅解决了现有的可穿戴设备(通常仅有一个一个拍摄模组)需要用户扭转手臂才能实现的调整拍摄方向的问题,同时还可满足用户的不同拍摄方向的拍摄需求。
本发明实施例中,在实现智能主机20相对底部支架10转动时,由于侧带30的一个侧带端部通过第一转轴21轴接于底部支架10的第一端,因此,侧带30的一个侧带端部、底部支架10的第一端以及智能主机20的一端三者之间为共用第一转轴21的共轴转动设计,从而能够减少可穿戴设备的部件设计,简化可穿戴设备的部件组装流程,进而使得可穿戴设备的结构更加紧凑。
本发明实施例中,智能主机20的顶侧20a上可以设置有顶侧显示屏(图中未标注);可选地,智能主机20的底侧20b上也可以设置有底侧显示屏(图中未标注)。在通常情况下,智能主机20可以叠在底部支架10上,即智能主机20的底侧20b与底部支架10的上表面贴合;而当智能主机20以第一转轴21发生转动时,智能主机20的顶侧20a以及底侧20b均与底部支架10的上表面形成一定角度。
在本发明实施例中,该智能主机20作为拍摄方向可调的可穿戴设备的主机使用,其不仅包括设于内部的主板、用于实现触控、显示功能的触控屏/或显示屏、对主板、触控屏/显示屏进行供电的电池、实现智能主机20的拍摄功能的一个拍摄模组22和另一个拍摄模组23、实现智能主机20的通信功能的通信器件(例如无线通信器件、蓝牙通信器件、红外通信器件等)、实现智能主机20的检测功能的传感器(例如重力传感器、加速度传感器、距离传感器、气压传感器、紫外线检测器、玩水检测识别模块)、实现对用户进行定位的定位模块、实现对用户的心率进行检测的心率检测器、实现智能主机20的定时功能的定时器、对用户的身份进行识别的元件,例如指纹模组、面部识别模组,以及实现音频输入和/或输出的麦克风、扬声器等。应该得知的是,上述各器件、功能模组均设于智能主机20内部,且与主板电连接,通过主板实现对这些器件、功能模组的控制,进而控制其实现对应的功能。
因此,本发明实施例中,智能主机20是有别于传统的手表的仅能实现时间显示、定时等功能的表盘的。
进一步地,由于智能主机20与底部支架10通过第一转轴21可以实现可转动连接,因此,可以通过调整智能主机20与底部支架10的转动角度来调整一个拍摄模组22和另一个拍摄模组23的拍摄方向,其中,智能主机20与底部支架10的转动角度可在0~90°之间。例如,当智能主机20叠在底部支架10上时,智能主机20与底部支架10之间的角度为0°,而当智能主机20发生转动后,该智能主机20与底部支架10之间的角度可优选可以为90°。如图1所示,当智能主机20与底部支架10之间的角度为0°时,智能主机20上的一个拍摄模组22和另一个拍摄模组23相对底部支架10的夹角也为0°夹角,此时一个拍摄模组22的拍摄方向朝上,而第二拍摄模块23的拍摄方向朝下并且被底部支架10阻挡;又如图2所示,当智能主机20相对底部支架10转动形成90°夹角时,智能主机20的一个拍摄模组22和另一个拍摄模组23相对底部支架10的夹角为90°夹角,此时一个拍摄模组22的拍摄方向朝左,而第二拍摄模块23的拍摄方向朝右,从而可以实现一个拍摄模组22和另一个拍摄模组23的拍摄方向的调整。特别的,当智能主机20的顶侧20a上设置有顶侧显示屏以及底侧20b上也设置有底侧显示屏时,若智能主机20的一个拍摄模组22和另一个拍摄模组23相对底部支架10的夹角为90°夹角,那么顶侧20a上设置的顶侧显示屏以及底侧20b上设置的底侧显示屏相对底部支架10的夹角也为90°夹角,从而可以方便位于佩戴者的左侧的用户观看顶侧显示屏,以及方便位于佩戴者的右侧的用户观看底侧显示屏。本发明实施例中,智能主机20与底部支架10的转动角度可以在0~90°之间调整,优选地,该转动角度可为0°、30°、45°、60°、75°或90°。
在本发明实施例中,由于智能主机20通过第一转轴21与底部支架10转动连接,因此,智能主机20可以包括相对设置的转动端20c和自由端20d,该转动端20c为智能主机20通过第一转轴21与底部支架10的第一端连接的一端,而该自由端20d则为可随着转动端20c相对底部支架10实现转动并相对底部支架10可形成角度的一端。具体地,为了避免影响一个拍摄模组22和另一个拍摄模组23的拍摄视角,一个拍摄模组22可以优选设于该自由端20d的端部顶侧(属于顶侧20a的一部分),而另一个拍摄模组23可以优选设于该自由端20d的端部底侧(属于底侧20b的一部分)。
在本发明实施例中,该底部支架10可为板状结构。当底部支架10为板状结构时,底部支架10的材质可优选为隔热材质,例如塑胶。当用户佩戴可穿戴设备时,能够避免智能主机20发热量大而可能对用户的手腕皮肤造成烫伤的情况。因此,该底部支架10不仅可实现承载智能主机20转动的功能,同时还可实现对智能主机20与用户的手腕皮肤进行隔热的效果。
进一步地,当底部支架10为板状结构时,底部支架10上可以设置有一个或多个通孔10a,以使得智能主机20通过通孔10a可以实现包括对用户的心率进行检测在内的各项生理特征检测。其中,通孔10的形状可以是圆形、方形或者椭圆形等,本发明实施例不作限定。
可以理解的是,在其他实施例中,该底部支架10也可以是闭合环状结构,本发明实施例不作限定。
在用户需调整智能主机20相对底部支架10的角度时,可通过手动调整智能主机20相对底部支架10的转动角度,当智能主机20转动至用户的目标角度时,此时,用户停止调整智能主机20,智能主机20可保持在当前角度不变,此时,一个拍摄模组22和/或另一个拍摄模组23可处于可拍摄状态,用户可根据实际拍摄需求选择一个拍摄模组22和/或另一个拍摄模组23执行对应的拍摄操作。
当用户想将智能主机20叠在底部支架10上时,则可再次通过手动调整智能主机20,使得智能主机20可再次被调整而相对底部支架10转动,直至智能主机20叠于底部支架10上,此时用户停止调整智能主机20。
本发明实施例公开的一种可穿戴设备使得一个拍摄模组22和另一个拍摄模组23可随着智能主机的转动而获得不同的拍摄方向,满足用户的不同拍摄方向需求,而且可以避免扭转佩戴可穿戴设备的手臂调整拍摄方向时带来的手臂疲惫感,提升拍摄体验感。
请参阅图4,图4是本发明实施例公开的一种用于可穿戴设备的定位方法的流程示意图。其中,图4所描述的用于可穿戴设备的定位方法可以应用于法前面实施例描述的可穿戴设备。如前面实施例描述的,可穿戴设备包括智能主机,智能主机相对的顶侧和底侧各自设有一个拍摄模组,智能主机能够发生转动以实现同时调整两个拍摄模组的拍摄方向。如图4所示,该用于可穿戴设备的定位方法可以包括以下步骤:
401、智能主机控制两个拍摄模组分别执行拍摄操作,得到第一图像以及第二图像。
本发明实施例中,第一图像为一个拍摄模组拍摄到的可穿戴设备所处的当前环境一侧的图像,第二图像为另一个拍摄模组拍摄到的可穿戴设备所处的当前环境另一侧的图像。
作为一种可选的实施方式,可穿戴设备的智能主机与可穿戴设备的支架相连接的转轴上设置有转动电机,智能主机控制两个拍摄模组分别执行拍摄操作,得到第一图像以及第二图像,可以包括以下步骤:
智能主机向该转动电机发送转动指令,以使该转动电机根据该转动指令控制转轴以预设速度朝向预设方向转动,并在转轴转动过程中控制两个拍摄模组分别执行拍摄操作,得到第一图像以及第二图像;其中,第一图像包括某一拍摄模组在转轴转动过程中拍摄得到的若干图像,第二图像包括另一拍摄模组在转轴转动过程中拍摄得到的若干图像。
通过实施这种可选的实施方式,可穿戴设备可以控制转轴自动转动以带动智能主机转动,从而利用两个拍摄模组拍摄各个角度下的图像,获得更多更全面的图像,以便后续根据这些图像确定可穿戴设备所处的环境,提高确定可穿戴设备所处环境的准确度。
402、智能主机根据第一图像和第二图像确定可穿戴设备所处的当前环境类别,当前环境类别为室内环境或室外环境。
403、当前环境类别为室内环境时,智能主机控制可穿戴设备利用WIFI定位。
404、当前环境类别为室外环境时,智能主机控制可穿戴设备利用全球定位***GPS定位。
可见,通过实施图4所描述的用于可穿戴设备的定位方法,可以利用可穿戴设备的双拍摄模组结构拍摄可穿戴设备所处的当前环境两侧的图像,根据该图像进行精确的图像分析,得到当前环境类别,从而精准地区分室内场景与室外场景,在不同场景使用不同的定位策略,进而提高定位精准度。
请参阅图5,图5是本发明实施例公开的另一种用于可穿戴设备的定位方法的流程示意图。其中,图5所描述的用于可穿戴设备的定位方法可以应用于法前面实施例描述的可穿戴设备。如前面实施例描述的,可穿戴设备包括智能主机,智能主机相对的顶侧和底侧各自设有一个拍摄模组,智能主机能够发生转动以实现同时调整两个拍摄模组的拍摄方向。如图5所示,该用于可穿戴设备的定位方法可以包括以下步骤:
501、智能主机控制两个拍摄模组分别执行拍摄操作,得到第一图像以及第二图像。
本发明实施例中,第一图像为一个拍摄模组拍摄到的可穿戴设备所处的当前环境一侧的图像,第二图像为另一个拍摄模组拍摄到的可穿戴设备所处的当前环境另一侧的图像。
502、智能主机获取可穿戴设备的历史室内环境信息;历史室内环境信息包括若干个室内环境与每一室内环境对应的用户所处时长。
本发明实施例中,历史室内环境信息中包括的若干个室内环境为可穿戴设备的用户曾经佩戴可穿戴设备待过的室内环境。如当可穿戴设备的用户为儿童时,历史室内环境信息中包括的若干个室内环境可以为儿童的家、儿童的学校等,以及历史室内环境信息中还可以包括在每一室内环境中用户所处时长。用户所处时长可以利用可穿戴设备统计可穿戴设备处于该室内环境的时长,或者利用可穿戴设备统计可穿戴设备的用户处于该室内环境的时长,本发明实施例中不做限定。
作为一种可选的实施方式,在智能主机获取可穿戴设备的历史室内环境信息之前,智能主机还可以执行以下步骤:
当可穿戴设备处于室内环境时,智能主机检测可穿戴设备是否处于佩戴状态,佩戴状态为可穿戴设备的用户佩戴可穿戴设备时可穿戴设备所处的状态;
当检测出可穿戴设备处于佩戴状态时,智能主机从当前时刻开始计时;
在智能主机计时的过程中,如果可穿戴设备不处于佩戴状态,则智能主机暂停计时;
当可穿戴设备从上述室内环境移动至室外环境时,智能主机停止计时,并获取与该室内环境对应的用户所处时长,其中,用户所处时长为在该室内环境中可穿戴设备处于佩戴状态的时长。
通过实施这种可选的实施方式,可穿戴设备获取到的历史室内环境信息中的每一室内环境用户所处时长为在该环境下用户佩戴可穿戴设备的时长,从而减少了误将用户未佩戴可穿戴设备仅将可穿戴设备放置于某处时统计这类室内环境用户所处时长较高的误差现象,进而获得更加精准的历史室内环境信息,便于后续根据历史室内环境信息确定可穿戴设备所处的当前环境类别,实现相匹配的定位方式。
503、智能主机按照用户所处时长由高至低的顺序从历史室内环境信息中确定目标室内环境,将目标室内环境所包括的室内物体特征设置为预设室内物体特征。
本发明实施例中,用户所处时长越高,说明与之相对的室内环境为用户经常佩戴可穿戴设备所处的室内环境,用户到达此类室内环境的概率较高,因此将其所包括的室内物体特征设置为预设室内物体特征,提高分辨可穿戴设备所处的当前环境类别的准确度。
504、智能主机提取第一图像和第二图像所包括的物体特征,判断物体特征与预设室内物体特征的匹配度是否大于预设匹配度,如果是,执行步骤505,如果否,执行步骤506。
作为一种可选的实施方式,在判断出物体特征与预设室内物体特征的匹配度小于或者等于预设匹配度之后,还可以执行以下步骤:
智能主机计算第一图像所包括的空间结构图示与第二图像所包括的空间结构图示之间的相似度;其中,空间结构图示包括若干用于表示空间结构的图示,例如,空间结构图示可以包括若干个平面、任意两个平面相交线以及任意三个平面相交点;
当第一图像所包括的空间结构图示与第二图像所包括的空间结构图示之间的相似度高于预设相似度时,执行步骤505;当第一图像所包括的空间结构图示与第二图像所包括的空间结构图示之间的相似度小于或者等于预设相似度时,执行步骤506。
通过实施这种可选的实施方式,可以根据可穿戴设备的双拍摄模组结构获取到的第一图像以及第二图像分析第一图像与第二图像所包括的空间结构图示之间的相似度是否高于预设相似度,其中,当可穿戴设备处于室内环境时,第一图像与第二图像所捕捉到的空间结构图示之间的相似度高于预设相似度,当可穿戴设备处于室外环境时,第一图像与第二图像所捕捉到的空间结构图示之间的相似度低于或者等于预设相似度,据此更加可靠的确定出可穿戴设备所处的当前环境类别,从而获得更可靠的定位结果。
作为另一种可选的实施方式,智能主机计算第一图像所包括的空间结构图示与第二图像所包括的空间结构图示之间的相似度可以包括:
智能主机确定第一图像所包括的空间结构图示的第一类别,以及第二图像所包括的空间结构图示的第二类别;
智能主机判断上述第一类别与上述第二类别是否相匹配;
如果相匹配,智能主机计算第一类别对应的空间结构图示的图示特征与第二类别对应的空间结构图示的图示特征之间的相似度。
举例来说,当第一图像所包括的空间结构图示的第一类别为平面、相交线、相交点且第二图像所包括的空间结构图示的第二类别为平面时,认为第一类别与第二类别不相匹配;当第一类别为平面、相交线、相交点且第二类别为平面、相交线、相交点时,认为第一类别与第二类别相匹配,此时,进一步计算第一类别对应的空间结构图示的图示特征与第二类别对应的空间结构图示的图示特征之间的相似度,如计算第一类别中平面的所在位置以及平面的数量、第二类别中平面的所在位置以及平面的数量之间是否能构成完整的平面空间示意图,其中,相似度越高,表示第一类别中平面的所在位置以及平面的数量、第二类别中平面的所在位置以及平面的数量之间能构成完整的平面空间示意图的概率越大。
通过实施这种可选的实施方式,在计算之前,可以先判断空间结构图示的类别是否匹配,如果不匹配,不必进行后续计算,降低了计算量。
505、智能主机确定可穿戴设备所处的当前环境类别为室内环境,并控制可穿戴设备利用WIFI定位。
506、智能主机确定可穿戴设备所处的当前环境类别为室外环境,并控制可穿戴设备利用全球定位***GPS定位。
可见,通过实施图5所描述的用于可穿戴设备的定位方法,可以利用可穿戴设备的双拍摄模组结构拍摄可穿戴设备所处的当前环境两侧的图像,根据该图像进行精确的图像分析,得到当前环境类别,从而精准地区分室内场景与室外场景,在不同场景使用不同的定位策略,进而提高定位精准度。
此外,通过实施图5所描述的用于可穿戴设备的定位方法,可以提取第一图像和第二图像所包括的物体特征,将其与预设室内物体特征进行匹配,以此确定可穿戴设备所处的当前环境类别为室内环境或者室外环境。这一过程利用特征提取的图像分析技术精准地获取到可穿戴设备所处的当前环境类别,从而提高了根据当前环境类别选择定位策略的精确度。
此外,通过实施图5所描述的用于可穿戴设备的定位方法,还可以根据可穿戴设备的历史室内环境信息来确定预设室内物体特征,从中选取用户所处时长较高的若干个目标室内环境,将若干个目标室内环境所包括的室内特征设置为预设室内物体特征。这一过程可以根据用户使用可穿戴设备的历史室内环境信息来将用户所处时长较高的室内环境所包括的室内物体特征设置为预设室内物体特征,从而提高根据预设室内物体特征确定当前环境类别的准确度。
请参阅图6,图6是本发明实施例公开的另一种用于可穿戴设备的定位方法的流程示意图。其中,图6所描述的用于可穿戴设备的定位方法可以应用于法前面实施例描述的可穿戴设备。如前面实施例描述的,可穿戴设备包括智能主机,智能主机相对的顶侧和底侧各自设有一个拍摄模组,智能主机能够发生转动以实现同时调整两个拍摄模组的拍摄方向。如图6所示,该用于可穿戴设备的定位方法可以包括以下步骤:
601、智能主机控制两个拍摄模组分别执行拍摄操作,得到第一图像以及第二图像。
本发明实施例中,第一图像为一个拍摄模组拍摄到的可穿戴设备所处的当前环境一侧的图像,第二图像为另一个拍摄模组拍摄到的可穿戴设备所处的当前环境另一侧的图像。
602、智能主机获取可穿戴设备的历史室内环境信息;历史室内环境信息包括若干个室内环境与每一室内环境对应的用户所处时长。
603、智能主机按照用户所处时长由高至低的顺序从历史室内环境信息中确定目标室内环境,将目标室内环境所包括的室内物体特征设置为预设室内物体特征。
604、智能主机提取第一图像和第二图像所包括的物体特征,判断物体特征与预设室内物体特征的匹配度是否大于预设匹配度,如果是,执行步骤605以及步骤607或步骤608,如果否,执行步骤606至步骤607或步骤606以及步骤608。
605、智能主机确定可穿戴设备所处的当前环境类别为室内环境,并根据可穿戴设备的位姿信息预测可穿戴设备下一时刻所处的环境。
606、智能主机确定可穿戴设备所处的当前环境类别为室外环境,根据可穿戴设备的位姿信息预测可穿戴设备下一时刻所处的环境。
607、当可穿戴设备下一时刻所处的环境为室内环境时,智能主机控制可穿戴设备利用全球定位***GPS定位。
608、当可穿戴设备下一时刻所处的环境为室外环境时,智能主机控制可穿戴设备利用WIFI定位。
可见,通过实施图6所描述的用于可穿戴设备的定位方法,可以利用可穿戴设备的双拍摄模组结构拍摄可穿戴设备所处的当前环境两侧的图像,根据该图像进行精确的图像分析,得到当前环境类别,从而精准地区分室内场景与室外场景,在不同场景使用不同的定位策略,进而提高定位精准度。
此外,通过实施图6所描述的用于可穿戴设备的定位方法,利用特征提取的图像分析技术精准地获取到可穿戴设备所处的当前环境类别,从而提高了根据当前环境类别选择定位策略的精确度。
此外,通过实施图6所描述的用于可穿戴设备的定位方法,可以根据用户使用可穿戴设备的历史室内环境信息来将用户所处时长较高的室内环境所包括的室内物体特征设置为预设室内物体特征,从而提高根据预设室内物体特征确定当前环境类别的准确度。
此外,通过实施图6所描述的用于可穿戴设备的定位方法,还可以根据可穿戴设备的位姿信息预测可穿戴设备下一时刻所处的环境,根据可穿戴设备下一时刻所处的环境控制可穿戴设备利用不同的定位方式定位。这一过程在可穿戴设备当前处于室内但预测到下一时刻即将处于室外、可穿戴设备当前处于室外但预测到下一时刻即将处于室内的情况下能够选择可穿戴设备下一时刻所处的环境所对应的定位方式,提高选择定位方式的可靠性。
请参阅图7,图7是本发明实施例公开的一种可穿戴设备的结构示意图。在图7所示的可穿戴设备中,可穿戴设备包括智能主机,智能主机相对的顶侧和底侧各自设有一个拍摄模组,智能主机能够发生转动以实现同时调整两个拍摄模组的拍摄方向。如图7所示,该可穿戴设备包括的智能主机可以包括:
拍摄单元701,用于控制两个拍摄模组分别执行拍摄操作,得到第一图像以及第二图像,第一图像为一个拍摄模组拍摄到的可穿戴设备所处的当前环境一侧的图像,第二图像为另一个拍摄模组拍摄到的可穿戴设备所处的当前环境另一侧的图像。
作为一种可选的实施方式,可穿戴设备的智能主机与可穿戴设备的支架相连接的转轴上设置有转动电机,拍摄单元701控制两个拍摄模组分别执行拍摄操作,得到第一图像以及第二图像,可以包括:
拍摄单元701向该转动电机发送转动指令,以使该转动电机根据该转动指令控制转轴以预设速度朝向预设方向转动,并在转轴转动过程中控制两个拍摄模组分别执行拍摄操作,得到第一图像以及第二图像;其中,第一图像包括某一拍摄模组在转轴转动过程中拍摄得到的若干图像,第二图像包括另一拍摄模组在转轴转动过程中拍摄得到的若干图像。
通过实施这种可选的实施方式,可以提高确定可穿戴设备所处环境的准确度。
确定单元702,用于根据拍摄单元701得到的第一图像和第二图像确定可穿戴设备所处的当前环境类别,当前环境类别为室内环境或室外环境。
第一控制单元703,用于当确定单元702确定出当前环境类别为室内环境时,控制可穿戴设备利用WIFI定位。
第二控制单元704,用于当确定单元702确定出当前环境类别为室外环境时,控制可穿戴设备利用全球定位***GPS定位。
可见,通过实施图7所描述的可穿戴设备,可以利用可穿戴设备的双拍摄模组结构拍摄可穿戴设备所处的当前环境两侧的图像,根据该图像进行精确的图像分析,得到当前环境类别,从而精准地区分室内场景与室外场景,在不同场景使用不同的定位策略,进而提高定位精准度。
请参阅图8,图8是本发明实施例公开的另一种可穿戴设备的结构示意图。其中,图8所示的可穿戴设备是由图7所示的可穿戴设备进行优化得到的。相应地,与图7所示的可穿戴设备包括的智能主机相比,在图8所示的可穿戴设备包括的智能主机中,确定单元702包括:
提取子单元7021,用于提取第一图像和第二图像所包括的物体特征。
判断子单元7022,用于判断提取子单元7021提取的物体特征与预设室内物体特征的匹配度是否大于预设匹配度。
作为一种可选的实施方式,在判断子单元7022判断出物体特征与预设室内物体特征的匹配度小于或者等于预设匹配度之后,判断子单元7022还可以用于:
计算第一图像所包括的空间结构图示与第二图像所包括的空间结构图示之间的相似度;其中,空间结构图示包括若干用于表示空间结构的图示,例如,空间结构图示可以包括若干个平面、任意两个平面相交线以及任意三个平面相交点;
当第一图像所包括的空间结构图示与第二图像所包括的空间结构图示之间的相似度高于预设相似度时,触发第一控制单元执行上述的可穿戴设备利用WIFI定位;当第一图像所包括的空间结构图示与第二图像所包括的空间结构图示之间的相似度小于或者等于预设相似度时,触发第二控制单元执行上述的可穿戴设备利用GPS定位。
通过实施这种可选的实施方式,更加可靠的确定出可穿戴设备所处的当前环境类别,从而获得更可靠的定位结果。
作为另一种可选的实施方式,判断子单元7022计算第一图像所包括的空间结构图示与第二图像所包括的空间结构图示之间的相似度可以包括:
判断子单元7022确定第一图像所包括的空间结构图示的第一类别,以及第二图像所包括的空间结构图示的第二类别;
判断子单元7022判断上述第一类别与上述第二类别是否相匹配;
如果相匹配,判断子单元7022计算第一类别对应的空间结构图示的图示特征与第二类别对应的空间结构图示的图示特征之间的相似度。
通过实施这种可选的实施方式,在计算之前,可以先判断空间结构图示的类别是否匹配,如果不匹配,不必进行后续计算,降低了计算量。
确定子单元7023,用于当判断子单元7022判断出物体特征与预设室内物体特征的匹配度大于预设匹配度时,确定可穿戴设备所处的当前环境类别为室内环境;当判断子单元7022判断出物体特征与预设室内物体特征的匹配度小于或者等于预设匹配度时,确定可穿戴设备所处的当前环境类别为室外环境。
可选的,图8所示的可穿戴设备包括的智能主机还可以包括:
获取单元705,用于在判断子单元7022判断物体特征与预设室内物体特征的匹配度是否大于预设匹配度之前,获取可穿戴设备的历史室内环境信息;历史室内环境信息包括若干个室内环境与每一室内环境对应的用户所处时长。
作为一种可选的实施方式,在获取单元705获取可穿戴设备的历史室内环境信息之前,获取单元705还可以用于:
当可穿戴设备处于室内环境时,检测可穿戴设备是否处于佩戴状态,佩戴状态为可穿戴设备的用户佩戴可穿戴设备时可穿戴设备所处的状态;
当检测出可穿戴设备处于佩戴状态时,从当前时刻开始计时;
在计时的过程中,如果可穿戴设备不处于佩戴状态,则暂停计时;
当可穿戴设备从上述室内环境移动至室外环境时,停止计时,并获取与该室内环境对应的用户所处时长,其中,用户所处时长为在该室内环境中可穿戴设备处于佩戴状态的时长。
通过实施这种可选的实施方式,获得更加精准的历史室内环境信息,便于后续根据历史室内环境信息确定可穿戴设备所处的当前环境类别,实现相匹配的定位方式。
设置单元706,用于按照用户所处时长由高至低的顺序从获取单元705获取的历史室内环境信息中确定目标室内环境,并将目标室内环境所包括的室内物体特征设置为预设室内物体特征。
可见,通过实施图8所描述的可穿戴设备,可以利用可穿戴设备的双拍摄模组结构拍摄可穿戴设备所处的当前环境两侧的图像,根据该图像进行精确的图像分析,得到当前环境类别,从而精准地区分室内场景与室外场景,在不同场景使用不同的定位策略,进而提高定位精准度。
此外,通过实施图8所描述的可穿戴设备,利用特征提取的图像分析技术精准地获取到可穿戴设备所处的当前环境类别,从而提高了根据当前环境类别选择定位策略的精确度。
此外,通过实施图8所描述的可穿戴设备,可以根据用户使用可穿戴设备的历史室内环境信息来将用户所处时长较高的室内环境所包括的室内物体特征设置为预设室内物体特征,从而提高根据预设室内物体特征确定当前环境类别的准确度。
请参阅图9,图9是本发明实施例公开的另一种可穿戴设备的结构示意图。其中,图9所示的可穿戴设备是由图8所示的可穿戴设备进行优化得到的。相应地,与图8所示的可穿戴设备包括的智能主机相比,图9所示的可穿戴设备包括的智能主机还可以包括:
第一预测单元707,用于在第二控制单元704控制可穿戴设备利用GPS定位之前,当可穿戴设备所处的环境为室外环境时,根据可穿戴设备的位姿信息预测可穿戴设备下一时刻所处的环境;当预测出可穿戴设备下一时刻所处的环境为室外环境时,触发第二控制单元704执行的控制可穿戴设备利用GPS定位;当预测出可穿戴设备下一时刻所处的环境为室内环境时,触发第一控制单元703执行的控制可穿戴设备利用WIFI定位。
可选的,图9所示的可穿戴设备包括的智能主机还可以包括:
第二预测单元708,用于在第一控制单元703控制可穿戴设备利用WIFI定位之前,当可穿戴设备所处的环境为室内环境时,根据可穿戴设备的位姿信息预测可穿戴设备下一时刻所处的环境;当预测出可穿戴设备下一时刻所处的环境为室内环境时,触发第一控制单元703执行的控制可穿戴设备利用WIFI定位;当预测出可穿戴设备下一时刻所处的环境为室外环境时,触发第二控制单元704执行的控制可穿戴设备利用GPS定位。
可见,通过实施图9所描述的可穿戴设备,可以利用可穿戴设备的双拍摄模组结构拍摄可穿戴设备所处的当前环境两侧的图像,根据该图像进行精确的图像分析,得到当前环境类别,从而精准地区分室内场景与室外场景,在不同场景使用不同的定位策略,进而提高定位精准度。
此外,通过实施图9所描述的可穿戴设备,利用特征提取的图像分析技术精准地获取到可穿戴设备所处的当前环境类别,从而提高了根据当前环境类别选择定位策略的精确度。
此外,通过实施图9所描述的可穿戴设备,可以根据用户使用可穿戴设备的历史室内环境信息来将用户所处时长较高的室内环境所包括的室内物体特征设置为预设室内物体特征,从而提高根据预设室内物体特征确定当前环境类别的准确度。
此外,通过实施图9所描述的可穿戴设备,在可穿戴设备当前处于室内但预测到下一时刻即将处于室外、可穿戴设备当前处于室外但预测到下一时刻即将处于室内的情况下能够选择可穿戴设备下一时刻所处的环境所对应的定位方式,提高选择定位方式的可靠性。
请参阅图10,图10是本发明实施例公开的又一种可穿戴设备的结构示意图。在图10所示的可穿戴设备中,可穿戴设备包括智能主机,智能主机相对的顶侧和底侧各自设有一个拍摄模组,智能主机能够发生转动以实现同时调整两个拍摄模组的拍摄方向。如图10所示,该智能主机包括:
存储有可执行程序代码的存储器1001;
与存储器耦合的处理器1002;
其中,处理器1002调用存储器1001中存储的可执行程序代码,执行图4、图5或图6所描述的用于可穿戴设备的定位方法的步骤。
本发明实施例公开一种计算机可读存储介质,其上存储有计算机指令,该计算机指令运行时执行图4、图5或图6所描述的用于可穿戴设备的定位方法的步骤。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质包括只读存储器(Read-Only Memory,ROM)、随机存储器(Random Access Memory,RAM)、可编程只读存储器(Programmable Read-only Memory,PROM)、可擦除可编程只读存储器(Erasable Programmable Read Only Memory,EPROM)、一次可编程只读存储器(One-time Programmable Read-Only Memory,OTPROM)、电子抹除式可复写只读存储器(Electrically-Erasable Programmable Read-Only Memory,EEPROM)、只读光盘(CompactDisc Read-Only Memory,CD-ROM)或其他光盘存储器、磁盘存储器、磁带存储器、或者能够用于携带或存储数据的计算机可读的任何其他介质。
以上对本发明实施例公开的一种用于可穿戴设备的定位方法及可穿戴设备进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种用于可穿戴设备的定位方法,其特征在于,所述可穿戴设备包括智能主机,所述智能主机相对的顶侧和底侧各自设有一个拍摄模组,所述智能主机能够发生转动以实现同时调整两个拍摄模组的拍摄方向,所述方法包括:
控制所述两个拍摄模组分别执行拍摄操作,得到第一图像以及第二图像,所述第一图像为一个拍摄模组拍摄到的所述可穿戴设备所处的当前环境一侧的图像,所述第二图像为另一个拍摄模组拍摄到的所述可穿戴设备所处的当前环境另一侧的图像;
根据所述第一图像和所述第二图像确定所述可穿戴设备所处的当前环境类别,所述当前环境类别为室内环境或室外环境;
当所述当前环境类别为所述室内环境时,控制所述可穿戴设备利用WIFI定位;
当所述当前环境类别为所述室外环境时,控制所述可穿戴设备利用全球定位***GPS定位;
所述根据所述第一图像和所述第二图像确定所述可穿戴设备所处的当前环境类别,包括:
提取所述第一图像和所述第二图像所包括的物体特征,判断所述物体特征与预设室内物体特征的匹配度是否大于预设匹配度;
当判断出所述物体特征与所述预设室内物体特征的匹配度大于所述预设匹配度时,确定所述可穿戴设备所处的当前环境类别为室内环境;
当判断出所述物体特征与所述预设室内物体特征的匹配度小于或者等于所述预设匹配度时,计算第一图像所包括的空间结构图示与第二图像所包括的空间结构图示之间的相似度;其中,空间结构图示包括若干用于表示空间结构的图示;当第一图像所包括的空间结构图示与第二图像所包括的空间结构图示之间的相似度小于或者等于预设相似度时,确定所述可穿戴设备所处的当前环境类别为室外环境。
2.根据权利要求1所述的方法,其特征在于,在所述判断所述物体特征与预设室内物体特征的匹配度是否大于预设匹配度之前,所述方法还包括:
获取所述可穿戴设备的历史室内环境信息;所述历史室内环境信息包括若干个室内环境与每一所述室内环境对应的用户所处时长;
按照用户所处时长由高至低的顺序从所述历史室内环境信息中确定目标室内环境,将所述目标室内环境所包括的室内物体特征设置为预设室内物体特征。
3.根据权利要求1至2任一项所述的方法,其特征在于,在所述控制所述可穿戴设备利用GPS定位之前,所述方法还包括:
当所述可穿戴设备所处的环境为所述室外环境时,根据所述可穿戴设备的位姿信息预测所述可穿戴设备下一时刻所处的环境;
当预测出所述可穿戴设备下一时刻所处的环境为所述室外环境时,执行所述的控制所述可穿戴设备利用GPS定位;
当预测出所述可穿戴设备下一时刻所处的环境为所述室内环境时,执行所述的控制所述可穿戴设备利用WIFI定位。
4.根据权利要求3所述的方法,其特征在于,在所述控制所述可穿戴设备利用WIFI定位之前,所述方法还包括:
当所述可穿戴设备所处的环境为所述室内环境时,根据所述可穿戴设备的位姿信息预测所述可穿戴设备下一时刻所处的环境;
当预测出所述可穿戴设备下一时刻所处的环境为所述室内环境时,执行所述的控制所述可穿戴设备利用WIFI定位;
当预测出所述可穿戴设备下一时刻所处的环境为所述室外环境时,执行所述的控制所述可穿戴设备利用GPS定位。
5.一种可穿戴设备,其特征在于,所述可穿戴设备包括智能主机,所述智能主机相对的顶侧和底侧各自设有一个拍摄模组,所述智能主机能够发生转动以实现同时调整两个拍摄模组的拍摄方向,所述智能主机包括:
拍摄单元,用于控制所述两个拍摄模组分别执行拍摄操作,得到第一图像以及第二图像,所述第一图像为一个拍摄模组拍摄到的所述可穿戴设备所处的当前环境一侧的图像,所述第二图像为另一个拍摄模组拍摄到的所述可穿戴设备所处的当前环境另一侧的图像;
确定单元,用于根据所述第一图像和所述第二图像确定所述可穿戴设备所处的当前环境类别,所述当前环境类别为室内环境或室外环境;
第一控制单元,用于当所述当前环境类别为所述室内环境时,控制所述可穿戴设备利用WIFI定位;
第二控制单元,用于当所述当前环境类别为所述室外环境时,控制所述可穿戴设备利用全球定位***GPS定位;
所述确定单元包括:
提取子单元,用于提取所述第一图像和所述第二图像所包括的物体特征;
判断子单元,用于判断所述物体特征与预设室内物体特征的匹配度是否大于预设匹配度;
确定子单元,用于当所述判断子单元判断出所述物体特征与所述预设室内物体特征的匹配度大于所述预设匹配度时,确定所述可穿戴设备所处的当前环境类别为室内环境;当所述判断子单元判断出所述物体特征与所述预设室内物体特征的匹配度小于或者等于所述预设匹配度时,计算第一图像所包括的空间结构图示与第二图像所包括的空间结构图示之间的相似度;其中,空间结构图示包括若干用于表示空间结构的图示;当第一图像所包括的空间结构图示与第二图像所包括的空间结构图示之间的相似度小于或者等于预设相似度时,确定所述可穿戴设备所处的当前环境类别为室外环境。
6.根据权利要求5所述的可穿戴设备,其特征在于,所述智能主机还包括:
获取单元,用于在所述判断子单元判断所述物体特征与预设室内物体特征的匹配度是否大于预设匹配度之前,获取所述可穿戴设备的历史室内环境信息;所述历史室内环境信息包括若干个室内环境与每一所述室内环境对应的用户所处时长;
设置单元,用于按照用户所处时长由高至低的顺序从所述历史室内环境信息中确定目标室内环境,并将所述目标室内环境所包括的室内物体特征设置为预设室内物体特征。
7.根据权利要求5至6任一项所述的可穿戴设备,其特征在于,所述智能主机还包括:
第一预测单元,用于在所述第二控制单元控制所述可穿戴设备利用GPS定位之前,当所述可穿戴设备所处的环境为所述室外环境时,根据所述可穿戴设备的位姿信息预测所述可穿戴设备下一时刻所处的环境;当预测出所述可穿戴设备下一时刻所处的环境为所述室外环境时,触发所述第二控制单元执行所述的控制所述可穿戴设备利用GPS定位;当预测出所述可穿戴设备下一时刻所处的环境为所述室内环境时,触发所述第一控制单元执行所述的控制所述可穿戴设备利用WIFI定位。
8.根据权利要求7所述的可穿戴设备,其特征在于,所述智能主机还包括:
第二预测单元,用于在所述第一控制单元控制所述可穿戴设备利用WIFI定位之前,当所述可穿戴设备所处的环境为所述室内环境时,根据所述可穿戴设备的位姿信息预测所述可穿戴设备下一时刻所处的环境;当预测出所述可穿戴设备下一时刻所处的环境为所述室内环境时,触发所述第一控制单元执行所述的控制所述可穿戴设备利用WIFI定位;当预测出所述可穿戴设备下一时刻所处的环境为所述室外环境时,触发所述第二控制单元执行所述的控制所述可穿戴设备利用GPS定位。
9.一种可穿戴设备,其特征在于,包括:
存储有可执行程序代码的存储器;
与所述存储器耦合的处理器;
所述处理器调用所述存储器中存储的所述可执行程序代码,执行权利要求1-4任一项所述用于可穿戴设备的定位方法。
10.一种计算机可读存储介质,其存储计算机程序,其特征在于,所述计算机程序运行时使得计算机执行权利要求1-4任一项所述用于可穿戴设备的定位方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811151803.1A CN110139023B (zh) | 2018-09-29 | 2018-09-29 | 一种用于可穿戴设备的定位方法及可穿戴设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811151803.1A CN110139023B (zh) | 2018-09-29 | 2018-09-29 | 一种用于可穿戴设备的定位方法及可穿戴设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110139023A CN110139023A (zh) | 2019-08-16 |
CN110139023B true CN110139023B (zh) | 2021-08-24 |
Family
ID=67568438
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811151803.1A Active CN110139023B (zh) | 2018-09-29 | 2018-09-29 | 一种用于可穿戴设备的定位方法及可穿戴设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110139023B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111445593B (zh) * | 2020-03-27 | 2022-06-14 | 中国工商银行股份有限公司 | 签到方法和电子设备 |
CN111696311A (zh) * | 2020-06-23 | 2020-09-22 | 广东小天才科技有限公司 | 一种辅助识别室内外的方法、智能穿戴设备和存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150108236A (ko) * | 2014-03-17 | 2015-09-25 | 엘지전자 주식회사 | 이동 단말기 |
CN204790323U (zh) * | 2015-06-30 | 2015-11-18 | 杨越 | 一种可旋转的智能手表 |
CN206096631U (zh) * | 2016-09-27 | 2017-04-12 | 深圳市大疆创新科技有限公司 | 视频眼镜 |
CN106899722A (zh) * | 2017-04-28 | 2017-06-27 | 广东欧珀移动通信有限公司 | 电子装置 |
CN106908821A (zh) * | 2017-02-28 | 2017-06-30 | 北京交通大学 | 一种室内外无缝定位切换方法 |
CN106980131A (zh) * | 2016-01-19 | 2017-07-25 | 阿里巴巴集团控股有限公司 | 一种定位方法、装置和智能终端 |
JP2018005211A (ja) * | 2015-12-01 | 2018-01-11 | 孝郎 林 | 腕装着型撮影機能付装置、姿勢変換装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10088317B2 (en) * | 2011-06-09 | 2018-10-02 | Microsoft Technologies Licensing, LLC | Hybrid-approach for localization of an agent |
US9020191B2 (en) * | 2012-11-30 | 2015-04-28 | Qualcomm Incorporated | Image-based indoor position determination |
-
2018
- 2018-09-29 CN CN201811151803.1A patent/CN110139023B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150108236A (ko) * | 2014-03-17 | 2015-09-25 | 엘지전자 주식회사 | 이동 단말기 |
CN204790323U (zh) * | 2015-06-30 | 2015-11-18 | 杨越 | 一种可旋转的智能手表 |
JP2018005211A (ja) * | 2015-12-01 | 2018-01-11 | 孝郎 林 | 腕装着型撮影機能付装置、姿勢変換装置 |
CN106980131A (zh) * | 2016-01-19 | 2017-07-25 | 阿里巴巴集团控股有限公司 | 一种定位方法、装置和智能终端 |
CN206096631U (zh) * | 2016-09-27 | 2017-04-12 | 深圳市大疆创新科技有限公司 | 视频眼镜 |
CN106908821A (zh) * | 2017-02-28 | 2017-06-30 | 北京交通大学 | 一种室内外无缝定位切换方法 |
CN106899722A (zh) * | 2017-04-28 | 2017-06-27 | 广东欧珀移动通信有限公司 | 电子装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110139023A (zh) | 2019-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102252269B1 (ko) | 수영 분석 시스템 및 방법 | |
JP6388706B2 (ja) | 無人航空機の撮影制御方法及び撮影制御装置、電子デバイス | |
CN107281709B (zh) | 一种运动视频片段的提取方法及装置、电子设备 | |
EP2864932B1 (en) | Fingertip location for gesture input | |
US20180164801A1 (en) | Method for operating unmanned aerial vehicle and electronic device for supporting the same | |
CN104902171B (zh) | 一种摄像头角度纠正方法及终端 | |
CN110177242B (zh) | 一种基于可穿戴设备的视频通话方法及可穿戴设备 | |
CN107728482A (zh) | 控制***、控制处理方法及装置 | |
CN111354434B (zh) | 电子装置及其提供信息的方法 | |
CN110139023B (zh) | 一种用于可穿戴设备的定位方法及可穿戴设备 | |
JP2021522906A (ja) | 仮想オブジェクトと仮想シーンとのインタラクションの制御方法、装置、端末及びコンピュータプログラム | |
US20200278072A1 (en) | Gimbal control method, gimbal and machine-readable storage medium | |
CN104914995B (zh) | 一种拍照方法及终端 | |
CN113906371B (zh) | 根据锻炼环境提供锻炼信息的电子装置及操作该电子装置的方法 | |
CN109313883A (zh) | 基于面部取向检测的图像取向 | |
CN110177239B (zh) | 一种基于远程控制的视频通话方法及可穿戴设备 | |
CN111176464B (zh) | 一种处理方法和处理装置 | |
CN110139218B (zh) | 一种用于可穿戴设备的追踪方法及可穿戴设备 | |
CN110177240B (zh) | 一种可穿戴设备的视频通话方法及可穿戴设备 | |
CN111182204A (zh) | 一种基于可穿戴设备的拍摄方法及可穿戴设备 | |
US10551195B2 (en) | Portable device with improved sensor position change detection | |
CN110197569B (zh) | 一种基于可穿戴设备的安全监测方法及可穿戴设备 | |
CN110175254B (zh) | 一种照片的分类存储方法及可穿戴设备 | |
CN111744170B (zh) | 一种基于可穿戴设备的游戏控制方法及可穿戴设备 | |
CN110177241B (zh) | 一种可穿戴设备的姿态调整方法及可穿戴设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |