CN107966151A - 一种基于多传感器融合技术的室内行人航位推算方法 - Google Patents
一种基于多传感器融合技术的室内行人航位推算方法 Download PDFInfo
- Publication number
- CN107966151A CN107966151A CN201711172340.2A CN201711172340A CN107966151A CN 107966151 A CN107966151 A CN 107966151A CN 201711172340 A CN201711172340 A CN 201711172340A CN 107966151 A CN107966151 A CN 107966151A
- Authority
- CN
- China
- Prior art keywords
- kth
- pdr
- mrow
- msub
- pedestrian
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Navigation (AREA)
Abstract
本发明公开了一种基于多传感器融合技术的室内行人航位推算方法,包括:1、在行人所在的室内区域建立Wi‑Fi指纹库;2、手持智能设备利用设备自身硬件获取无线模块,加速度传感器,陀螺仪传感器检测到的原始数据;3、根据智能设备在Wi‑Fi指纹库中的匹配结果获取位置信息和利用加速度传感器和陀螺仪获取行人的航位信息;4、通过融合位置信息和航位信息,即完成了室内行人航位推算方法。本发明能消除PDR定位的累计误差,提高定位精度。
Description
技术领域
本发明涉及一种行人航位推算方法,具体涉及Wi-Fi指纹定位和传感器融合的PDR定位方法。
背景技术
随着移动互联网技术的快速发展,基于位置的服务需求与应用越来越广泛的应用于生活当中。以智能终端为平台,基于多传感器融合的室内行人导航是一个研究热点。该***的基本原理是采用行人航迹推算方法,根据惯性传感器,如加速度计、陀螺仪等测量的数据,主要涉及检步,检测步长,估计航向角等技术。由于单纯的PDR航迹推算存在累计误差,所以导致定位结果不准确。
发明内容
本发明为解决上述现有技术中存在的不足之处,提供一种基于多传感器融合技术的室内行人航位推算方法,以期能消除PDR定位的累计误差,提高定位精度。
为了达到上述目的,本发明所采用的技术方案为:
本发明一种基于多传感器融合技术的室内行人航位推算方法的特点是按如下步骤进行:
步骤1:建立定位区域的Wi-Fi指纹库:
以室内区域的外接矩形作为所述定位区域,以所述外接矩形的任意顶点为原点o,与原点相邻两条边分别为x轴和y轴,建立直角坐标系oxy;
将所述定位区域均匀划分为d个网格,以每个网格的中心点作为参考点,从而形成参考点集合,记为RP={RP1,RP2,…,RPi,…,RPd},RPi表示第i个网格内的参考点;i=1,2,…,d;
在所述定位区域内设置n个路由器,记为AP={AP1,AP2,…,APj,…,APn},APj表示第j个路由器;j=1,2,…,n;
所述第i个参考点RPi在一段时间内按照采样速率v连续采集第j个路由器APj发送的K个Wi-Fi信号强度值,从而构成第i个参考点RPi采集第i个信号强度时间序列 表示第i个参考点RPi接收第j个路由器APj发送的第k个Wi-Fi信号强度值,进而得到第i个参考点RPi采集n个路由器的信号强度时间序列集合RSSi={RSSi1,RSSi2,…,RSSij,…RSSin};k=1,2,…,K;
将信号强度时间序列中的所有元素求取均值作为第i个参考点RPi处第j个路由器APj的信号强度值从而得到第i个参考点RPi处n个路由器的信号强度值集合进而得到d个参考点处的信号强度值集合并构成Wi-Fi指纹库;
步骤2:根据加速度传感器进行步长检测和步长估计;
在所述定位区域内,利用行人携带的智能设备中所包含的加速度传感器获取行人行走的加速度波形,再采用峰值-谷值-零值-时间间隔的方法对所述加速度波形进行步长检测,从而利用式(1)得到第k步的步长Lk:
式(1)中,表示第k步的平均加速度值,并由式(2)获得:
式(2)中,表示第k步采集的第α次的加速度,N表示每一步所采集到的加速度总数,α=1,2,…,N;
步骤3:通过行人航位推算PDR方法得到PDR位置估计值:
步骤3.1、利用行人携带的智能设备中所包含的陀螺仪获得第k步的俯仰角Pitchk、滚动角Rollk和方位角Azimuthk,从而利用式(3)得到第k步的航向角hk:
hk=c1·Pitchk+c2·Rollk+c3·Azimuthk (3)
式(3)中,c1,c2,c3为对应的加权系数;
步骤3.2、利用所述Wi-Fi指纹库对行人进行KNN定位,并将定位结果记录为起始位置点(x0,y0);
步骤3.3、利用式(5)得到第k步的PDR位置估计值Pk PDR:
步骤4:室内行人进行航位推算:
步骤4.1、初始化k=1,根据起始位置点为(x0,y0),得到第k-1步的PDR位置估计值第k-1步的位置指纹定位点
步骤4.2、根据第k步的PDR位置估计值Pk PDR与第k-1步的PDR位置估计值Pk-1 PDR,得到第k步PDR位置估计的移动距离Lk PDR;
步骤4.3、利用所述Wi-Fi指纹库对行人进行第k步的KNN定位,得到第k步的位置指纹定位点
步骤4.3、根据第k步的位置指纹定位点与第k-1步的位置指纹定位点得到第k步Wi-Fi指纹库测得的移动距离Lk WiFi;
步骤4.4、根据第k步的PDR位置估计值Pk PDR的移动方向与第k步的位置指纹定位点的移动方向之间的夹角θk,判断θk≥θthr是否成立,若成立,则以第k步的PDR位置估计值Pk PDR作为第k步的定位结果,否则,执行步骤4.5;其中,θthr为所设定的阈值;
步骤4.5、对所述第k步Wi-Fi指纹库测得的移动距离Lk WiFi进行判断,若Lk WiFi∈[u×Lk PDR,v×Lk PDR]成立,则在第k步的PDR位置估计值Pk PDR的移动方向寻找距离为Lk WiFi的点作为定位结果,否则,以第k步的PDR位置估计值Pk PDR作为第k步的定位结果;其中,0<u<1<v<1.5;
步骤4.6、以所述第k步的定位结果作为第k+1步的起始位置点;
步骤4.7、将k+1赋值给k,并返回步骤4.2执行。
与现有技术相比,本发明的有益效果体现在:
1、本发明在定位阶段将PDR定位的位置结果和Wi-Fi指纹定位的结果进行融合,在一定程度上消除了PDR的累计误差,提高了行人的定位精度。
2、本发明对航位推算过程中陀螺仪计算的航位角进行逐次平滑,减小了航位角的累计误差。
3、本发明对航位推算过程中加速度计测得的每步加速度求取平均,减小了加速度值的累计误差。
附图说明
图1为本发明基于Wi-Fi指纹定位和PDR融合定位的原理框图;
图2为本发明Wi-Fi定位和PDR定位位置夹角示意图;
图3为本发明Wi-Fi指纹定位和PDR融合定位的流程图;
图4为本发明基于多传感器融合技术室内行人航位推算实验环境图。
具体实施方式
本实施例中,一种基于多传感器融合技术的室内行人航位推算方法是按如下步骤进行:
步骤1:以室内区域的外接矩形作为定位区域,以外接矩形的任意顶点为原点o,与原点相邻两条边分别为x轴和y轴,建立直角坐标系oxy;在具体建立坐标系的过程中,使定位区域位于坐标系oxy的第一象限。
将室内定位区域均匀划分为d个网格,以每个网格的中心点作为参考点,从而形成参考点集合,记为RP={RP1,RP2,…,RPi,…,RPd},RPi表示第i个网格内的参考点;1≤i≤d;本实施例中,如图3所示,实际定位环境为作者所处的实验室楼层环境,d的值定为1000。每行相邻参考点的间距是2米,相邻两列参考点的间距也是2米。
在室内定位区域设置有n个路由器,记为AP={AP1,AP2,…,APj,…,APn},APj表示第j个路由器;1≤j≤n;本实施例中,n的值定为39。如图3所示,将39个AP放置于室内区域中。
第i个参考点RPi在一段时间内按照采样速率v连续采集第j个路由器APj发送的K个信号强度,从而构成第i个参考点RPi采集第j个路由器APj的信号强度时间序列 表示第i个参考点RPi接收第j个路由器APj发送的第k个信号强度;1≤k≤K;本实施例中,K的值定为50,采样速率v定为1秒采集一次。如图1所示,以1秒采集一次的速率采集参考点RP1处接收自AP1的50个信号强度值。
对上述采集的50个RSS信号值求取均值得到-35dbm,作为RP1处接收自AP1的信号强度值,其他参考点做类似处理。
步骤2:根据加速度传感器进行检步和步长估计;
在定位区域内,利用行人携带的智能设备中所包含的加速度传感器获取行人行走的加速度波形,再采用峰值-谷值-零值-时间间隔的方法对所述加速度波形进行步长检测,从而利用式(1)得到第k步的步长Lk:
式(1)中,表示第k步的平均加速度值,并由式(2)获得:
式(2)中,表示第k步采集的第α次的加速度,N表示每一步所采集到的加速度总数,α=1,2,…,N;
行人每走一步包含一个最大加速度,2个零值,一个最小加速度,并且满足时间间隔合理,按照成人常速行走的速度为每秒2到4步。本实例中N等于3。
步骤3:通过行人航位推算PDR方法得到PDR位置估计值:
步骤3.1、利用行人携带的智能设备中所包含的陀螺仪获得第k步的俯仰角Pitchk、滚动角Rollk和方位角Azimuthk,从而利用式(3)得到第k步的航向角hk:
hk=c1·Pitchk+c2·Rollk+c3·Azimuthk (3)
式(3)中,c1,c2,c3为对应的加权系数,本实例中c1,c2,c3分别取1,0.3,0.1。
步骤3.2、利用所述Wi-Fi指纹库对行人进行KNN定位,并将定位结果记录为起始位置点(x0,y0);
步骤3.3、利用式(5)得到第k步的PDR位置估计值Pk PDR:
步骤4:室内行人进行航位推算:
步骤4.1、初始化k=1,根据起始位置点为(x0,y0),得到第k-1步的PDR位置估计值第k-1步的位置指纹定位点
步骤4.2、根据第k步的PDR位置估计值Pk PDR与第k-1步的PDR位置估计值Pk-1 PDR,得到第k步PDR位置估计的移动距离Lk PDR;
步骤4.3、利用所述Wi-Fi指纹库对行人进行第k步的KNN定位,得到第k步的位置指纹定位点
步骤4.3、根据第k步的位置指纹定位点与第k-1步的位置指纹定位点得到第k步Wi-Fi指纹库测得的移动距离
步骤4.4、根据第k步的PDR位置估计值Pk PDR的移动方向与第k步的位置指纹定位点的移动方向之间的夹角θk,判断θk≥θthr是否成立,若成立,则以第k步的PDR位置估计值Pk PDR作为第k步的定位结果,否则,执行步骤4.5;其中,θthr为所设定的阈值30°;
步骤4.5、对所述第k步Wi-Fi指纹库测得的移动距离Lk WiFi进行判断,若Lk WiFi∈[u×Lk PDR,v×Lk PDR]成立,则在第k步的PDR位置估计值Pk PDR的移动方向寻找距离为Lk WiFi的点作为定位结果,否则,以第k步的PDR位置估计值Pk PDR作为第k步的定位结果;其中,u=0.9,v=1.2;
步骤4.6、以所述第k步的定位结果作为第k+1步的起始位置点;
步骤4.7、将k+1赋值给k,并返回步骤4.2执行。
下面结合具体实施方式进行详细说明,图4是合肥工业大学逸夫楼3楼的平面示意图,基于多传感器融合技术的室内行人航位推算实验在3楼的房间和走廊进行。3楼的平面面积是50mx60m。人在行走过程中,人身体的不同部位会有不同的加速度变化,但都有规律性,所以可以从中提取出信息,来识别是否行走或静止等状态。在用陀螺仪进行航向角估计时,考虑到人的姿态是变化的,式(4)中对应的加权系数在本实验中c1,c2,c3分别取1,0.3,0.1。具体实现过程是,在初始位置利用Wi-Fi指纹进行KNN定位获得一个初始位置点(3,4),行人从初始位置点开始移动,在每一步根据Wi-Fi指纹定位结果和PDR定位结果,对位置进行融合,将融合位置结果作为PDR新的起始位置。其中Wi-Fi定位和PDR定位的位置夹角计算如图2所示。具体的位置融合过程如图3所示。
Claims (1)
1.一种基于多传感器融合技术的室内行人航位推算方法,其特征是按如下步骤进行:
步骤1:建立定位区域的Wi-Fi指纹库:
以室内区域的外接矩形作为所述定位区域,以所述外接矩形的任意顶点为原点o,与原点相邻两条边分别为x轴和y轴,建立直角坐标系oxy;
将所述定位区域均匀划分为d个网格,以每个网格的中心点作为参考点,从而形成参考点集合,记为RP={RP1,RP2,…,RPi,…,RPd},RPi表示第i个网格内的参考点;i=1,2,…,d;
在所述定位区域内设置n个路由器,记为AP={AP1,AP2,…,APj,…,APn},APj表示第j个路由器;j=1,2,…,n;
所述第i个参考点RPi在一段时间内按照采样速率v连续采集第j个路由器APj发送的K个Wi-Fi信号强度值,从而构成第i个参考点RPi采集第i个信号强度时间序列 表示第i个参考点RPi接收第j个路由器APj发送的第k个Wi-Fi信号强度值,进而得到第i个参考点RPi采集n个路由器的信号强度时间序列集合RSSi={RSSi1,RSSi2,…,RSSij,…RSSin};k=1,2,…,K;
将信号强度时间序列中的所有元素求取均值作为第i个参考点RPi处第j个路由器APj的信号强度值从而得到第i个参考点RPi处n个路由器的信号强度值集合进而得到d个参考点处的信号强度值集合并构成Wi-Fi指纹库;
步骤2:根据加速度传感器进行步长检测和步长估计;
在所述定位区域内,利用行人携带的智能设备中所包含的加速度传感器获取行人行走的加速度波形,再采用峰值-谷值-零值-时间间隔的方法对所述加速度波形进行步长检测,从而利用式(1)得到第k步的步长Lk:
<mrow>
<msub>
<mi>L</mi>
<mi>k</mi>
</msub>
<mo>=</mo>
<mn>1.07</mn>
<mo>&times;</mo>
<mroot>
<mover>
<mrow>
<msub>
<mi>ACC</mi>
<mi>k</mi>
</msub>
</mrow>
<mo>&OverBar;</mo>
</mover>
<mn>3</mn>
</mroot>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
式(1)中,表示第k步的平均加速度值,并由式(2)获得:
<mrow>
<mover>
<mrow>
<msub>
<mi>ACC</mi>
<mi>k</mi>
</msub>
</mrow>
<mo>&OverBar;</mo>
</mover>
<mo>=</mo>
<mfrac>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>&alpha;</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>N</mi>
</munderover>
<mo>|</mo>
<msubsup>
<mi>ACC</mi>
<mi>k</mi>
<mi>&alpha;</mi>
</msubsup>
<mo>|</mo>
</mrow>
<mi>N</mi>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
式(2)中,表示第k步采集的第α次的加速度,N表示每一步所采集到的加速度总数,α=1,2,…,N;
步骤3:通过行人航位推算PDR方法得到PDR位置估计值:
步骤3.1、利用行人携带的智能设备中所包含的陀螺仪获得第k步的俯仰角Pitchk、滚动角Rollk和方位角Azimuthk,从而利用式(3)得到第k步的航向角hk:
hk=c1·Pitchk+c2·Rollk+c3·Azimuthk (3)
式(3)中,c1,c2,c3为对应的加权系数;
步骤3.2、利用所述Wi-Fi指纹库对行人进行KNN定位,并将定位结果记录为起始位置点(x0,y0);
步骤3.3、利用式(5)得到第k步的PDR位置估计值Pk PDR:
<mrow>
<msup>
<msub>
<mi>P</mi>
<mi>k</mi>
</msub>
<mrow>
<mi>P</mi>
<mi>D</mi>
<mi>R</mi>
</mrow>
</msup>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>x</mi>
<mi>k</mi>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>y</mi>
<mi>k</mi>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>x</mi>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>y</mi>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>+</mo>
<msub>
<mi>L</mi>
<mi>k</mi>
</msub>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mi>c</mi>
<mi>o</mi>
<mi>s</mi>
<mo>(</mo>
<msub>
<mi>h</mi>
<mi>k</mi>
</msub>
<mo>)</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>s</mi>
<mi>i</mi>
<mi>n</mi>
<mo>(</mo>
<msub>
<mi>h</mi>
<mi>k</mi>
</msub>
<mo>)</mo>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>,</mo>
<mi>k</mi>
<mo>&GreaterEqual;</mo>
<mn>1</mn>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>5</mn>
<mo>)</mo>
</mrow>
</mrow>
步骤4:室内行人进行航位推算:
步骤4.1、初始化k=1,根据起始位置点为(x0,y0),得到第k-1步的PDR位置估计值第k-1步的位置指纹定位点
步骤4.2、根据第k步的PDR位置估计值Pk PDR与第k-1步的PDR位置估计值Pk-1 PDR,得到第k步PDR位置估计的移动距离Lk PDR;
步骤4.3、利用所述Wi-Fi指纹库对行人进行第k步的KNN定位,得到第k步的位置指纹定位点
步骤4.3、根据第k步的位置指纹定位点与第k-1步的位置指纹定位点得到第k步Wi-Fi指纹库测得的移动距离Lk WiFi;
步骤4.4、根据第k步的PDR位置估计值Pk PDR的移动方向与第k步的位置指纹定位点的移动方向之间的夹角θk,判断θk≥θthr是否成立,若成立,则以第k步的PDR位置估计值Pk PDR作为第k步的定位结果,否则,执行步骤4.5;其中,θthr为所设定的阈值;
步骤4.5、对所述第k步Wi-Fi指纹库测得的移动距离Lk WiFi进行判断,若Lk WiFi∈[u×Lk PDR,v×Lk PDR]成立,则在第k步的PDR位置估计值Pk PDR的移动方向寻找距离为Lk WiFi的点作为定位结果,否则,以第k步的PDR位置估计值Pk PDR作为第k步的定位结果;其中,0<u<1<v<1.5;
步骤4.6、以所述第k步的定位结果作为第k+1步的起始位置点;
步骤4.7、将k+1赋值给k,并返回步骤4.2执行。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711172340.2A CN107966151A (zh) | 2017-11-22 | 2017-11-22 | 一种基于多传感器融合技术的室内行人航位推算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711172340.2A CN107966151A (zh) | 2017-11-22 | 2017-11-22 | 一种基于多传感器融合技术的室内行人航位推算方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107966151A true CN107966151A (zh) | 2018-04-27 |
Family
ID=61999691
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711172340.2A Pending CN107966151A (zh) | 2017-11-22 | 2017-11-22 | 一种基于多传感器融合技术的室内行人航位推算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107966151A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110519693A (zh) * | 2019-09-29 | 2019-11-29 | 东北大学 | 一种面向智能移动终端的融合定位方法 |
WO2020088644A1 (zh) * | 2018-11-01 | 2020-05-07 | 华为技术有限公司 | 定位方法及装置 |
CN111561921A (zh) * | 2019-02-14 | 2020-08-21 | 华为技术有限公司 | 定位方法及装置 |
US20210055109A1 (en) * | 2018-06-01 | 2021-02-25 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for indoor positioning |
CN113852911A (zh) * | 2021-09-26 | 2021-12-28 | 桂林电子科技大学 | 基于指纹库和pdr推算的融合定位方法及指纹库更新方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104061934A (zh) * | 2014-06-10 | 2014-09-24 | 哈尔滨工业大学 | 基于惯性传感器的行人室内位置跟踪方法 |
CN105115487A (zh) * | 2015-05-18 | 2015-12-02 | 陈希 | 一种基于信息融合的超市内定位导航方法 |
CN105898866A (zh) * | 2016-06-16 | 2016-08-24 | 合肥工业大学 | 一种WiFi室内定位中指纹库的构建方法 |
CN107219500A (zh) * | 2017-06-01 | 2017-09-29 | 成都希盟泰克科技发展有限公司 | 基于wifi位置指纹数据的室内快速综合定位方法 |
CN107302754A (zh) * | 2017-05-10 | 2017-10-27 | 广东工业大学 | 一种基于WiFi与PDR的室内定位简易方法 |
-
2017
- 2017-11-22 CN CN201711172340.2A patent/CN107966151A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104061934A (zh) * | 2014-06-10 | 2014-09-24 | 哈尔滨工业大学 | 基于惯性传感器的行人室内位置跟踪方法 |
CN105115487A (zh) * | 2015-05-18 | 2015-12-02 | 陈希 | 一种基于信息融合的超市内定位导航方法 |
CN105898866A (zh) * | 2016-06-16 | 2016-08-24 | 合肥工业大学 | 一种WiFi室内定位中指纹库的构建方法 |
CN107302754A (zh) * | 2017-05-10 | 2017-10-27 | 广东工业大学 | 一种基于WiFi与PDR的室内定位简易方法 |
CN107219500A (zh) * | 2017-06-01 | 2017-09-29 | 成都希盟泰克科技发展有限公司 | 基于wifi位置指纹数据的室内快速综合定位方法 |
Non-Patent Citations (1)
Title |
---|
陈祥: "基于WIFI与移动智能终端的室内定位技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210055109A1 (en) * | 2018-06-01 | 2021-02-25 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for indoor positioning |
US11965744B2 (en) * | 2018-06-01 | 2024-04-23 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for indoor positioning |
WO2020088644A1 (zh) * | 2018-11-01 | 2020-05-07 | 华为技术有限公司 | 定位方法及装置 |
CN111561921A (zh) * | 2019-02-14 | 2020-08-21 | 华为技术有限公司 | 定位方法及装置 |
CN111561921B (zh) * | 2019-02-14 | 2022-05-10 | 华为技术有限公司 | 定位方法及装置 |
CN110519693A (zh) * | 2019-09-29 | 2019-11-29 | 东北大学 | 一种面向智能移动终端的融合定位方法 |
CN113852911A (zh) * | 2021-09-26 | 2021-12-28 | 桂林电子科技大学 | 基于指纹库和pdr推算的融合定位方法及指纹库更新方法 |
CN113852911B (zh) * | 2021-09-26 | 2024-05-07 | 桂林电子科技大学 | 基于指纹库和pdr推算的融合定位方法及指纹库更新方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107966151A (zh) | 一种基于多传感器融合技术的室内行人航位推算方法 | |
CN111491367B (zh) | 一种基于群智感知和多融合技术的室内定位方法 | |
CN108534779B (zh) | 一种基于轨迹纠正和指纹改进的室内定位地图构建方法 | |
US9544740B2 (en) | Method, apparatus and computer program product for orienting a smartphone display and estimating direction of travel of a pedestrian | |
CN105263113A (zh) | 一种基于众包的WiFi位置指纹地图构建方法及其*** | |
CN104535064A (zh) | 一种Wi-Fi指纹辅助的室内移动终端惯性导航方法 | |
CN104977006A (zh) | 一种基于模糊理论和多传感器融合的室内定位方法 | |
CN103995250B (zh) | 射频标签轨迹追踪方法 | |
CN109470238A (zh) | 一种定位方法、装置和移动终端 | |
CN103841642A (zh) | 一种三维室内定位方法 | |
CN103916821A (zh) | 一种基于楼层间rssi差异的楼层判别方法 | |
CN103471586B (zh) | 一种传感器辅助的终端组合定位方法及装置 | |
CN102186194B (zh) | 基于无线传感器网络的无源目标测量模型的建立方法 | |
CN104394588A (zh) | 基于Wi-Fi指纹和多维尺度分析的室内定位方法 | |
CN105246153A (zh) | 一种室内指纹定位数据库高密度快速采集方法 | |
CN102033220A (zh) | 一种室内无线定位信息融合方法及*** | |
CN104501807B (zh) | 基于地磁场和历史定位轨迹的室内定位方法 | |
CN109737968B (zh) | 基于二维LiDAR和智能手机的室内融合定位方法 | |
CN109839613B (zh) | 一种使用路径信息校准的射频定位方法和装置 | |
CN104540219A (zh) | 一种低复杂度的Wi-Fi指纹室内定位方法 | |
CN104202818A (zh) | 一种基于建筑物开放边缘距离加权的楼层识别方法 | |
CN106060924A (zh) | 一种基于移动信标的室内定位方法 | |
CN104023390A (zh) | 基于pso和ukf组合的wsn节点定位方法 | |
CN103453882B (zh) | 一种基于飞行器的云层高度测量***及云层高度测量方法 | |
CN104619017B (zh) | 基于地图辅助的室内定位***WiFi接入点部署方案 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180427 |
|
RJ01 | Rejection of invention patent application after publication |