CN110536257B - 一种基于深度自适应网络的室内定位方法 - Google Patents

一种基于深度自适应网络的室内定位方法 Download PDF

Info

Publication number
CN110536257B
CN110536257B CN201910774488.6A CN201910774488A CN110536257B CN 110536257 B CN110536257 B CN 110536257B CN 201910774488 A CN201910774488 A CN 201910774488A CN 110536257 B CN110536257 B CN 110536257B
Authority
CN
China
Prior art keywords
rss
domain
network
target domain
grid point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910774488.6A
Other languages
English (en)
Other versions
CN110536257A (zh
Inventor
殷光强
郭贤生
李耶
王磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Dianke Huian Technology Co ltd
Original Assignee
Chengdu Dianke Huian Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Dianke Huian Technology Co ltd filed Critical Chengdu Dianke Huian Technology Co ltd
Priority to CN201910774488.6A priority Critical patent/CN110536257B/zh
Publication of CN110536257A publication Critical patent/CN110536257A/zh
Application granted granted Critical
Publication of CN110536257B publication Critical patent/CN110536257B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/33Services specially adapted for particular environments, situations or purposes for indoor environments, e.g. buildings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W64/00Locating users or terminals or network equipment for network management purposes, e.g. mobility management
    • H04W64/006Locating users or terminals or network equipment for network management purposes, e.g. mobility management with additional information processing, e.g. for direction or speed determination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

本发明属于在复杂的室内环境下采用深度迁移学习方法解决RSS波动性问题的范畴,具体为一种基于深度自适应网络的室内定位方法,其特征在于包括以下步骤:步骤1.将需要定位的室内环境划分为等大小的格点区域,并记录相应的坐标信息;步骤2.将移动设备依次置于定位环境中的各个格点,并记录下此刻来自各个接入点的RSS值以及相应的格点坐标信息,形成RSS离线指纹数据库,即为源域;步骤3.收集待定位的移动设备的RSS值,形成目标域;步骤4.知识迁移;步骤5.将目标域数据输入到训练好的网络中,即可获得位置。

Description

一种基于深度自适应网络的室内定位方法
技术领域
本发明属于利用室内环境中的接收信号强度进行定位的方法,特别是利用深度迁移学习方法对复杂室内环境中无线设备进行定位的技术,具体为一种基于深度自适应网络的室内定位方法。
背景技术
近年来,由于移动设备的广泛应用以及社交网络的迅猛发展,室内定位服务的需求日益增大。譬如,大型机场和车站内的导航,工厂对工人位置的实时监控,紧急情况下室内人员的救助等不胜枚举。因此在巨大的市场牵引力的作用下,寻求一种适合复杂室内定位环境下的高精度实时定位***,已成为业界的研究重点。
一般地,基于WiFi的RSS室内定位方法通常分为两种:三角定位法和位置指纹定位法。三角定位法基于角度的几何属性,利用几何原理计算出用户的定位位置。由于多径效应和非视距效应的存在,该方法定位精度往往较低。位置指纹定位法不需要假设存在直达波以及知道室内环境的布局,它通常包含两个阶段:离线阶段和在线阶段。在离线阶段,在划分好的每一个格点通过移动设备采集所有接入点的RSS值,之后利用采集到的RSS值以及对应的坐标信息构造离线指纹数据库。在线阶段时,给定一个未知位置的RSS样本,利用匹配算法与离线指纹数据库进行匹配,将相似度最高的RSS值对应的位置作为定位结果。
利用传统的匹配算法实现位置指纹定位时,通常要求离线指纹数据和在线指纹数据满足相同的分布,但是由于环境的变化和异构设备的影响,RSS值会产生波动,导致定位结果出现偏差。文献[1]利用迁移学习方法来解决RSS值波动性问题,该方法通过在一个子空间学习到浅层可迁移特征来减小域间差异。在这个子空间中,利用最大均值差异准则(Maximum Mean Discrepancy,MMD)减小源域与目标域之间的边缘概率分布差异,同时地,最大化RSS样本的方差以保留数据的属性。在张成的子空间中,域间的分布差异已得到了减小,RSS值的波动性问题得到了解决,之后再利用传统的匹配算法即可得到在线指纹数据的实际位置。该方法虽然在一定程度上能够提高定位精度,但其缺点也较为明显,该方法主要通过学习一个浅层映射将源域和目标域映射到该子空间中,而浅层映射仅仅能学习到浅层的表示特征,这对于减小域差异是明显不足的。因此,该类方法由于上述问题的存在而在复杂的室内环境中很难形成准确、实时、稳定的定位。
发明内容
本发明的目的是针对技术背景中的浅层表示特征学习方法存在的缺陷,研究设计了一种基于深度自适应网络的高精度室内定位方法。该方法通过深度自适应网络,学习可反映域间不变因素的深度可迁移特征。该深度自适应网络通过匹配希尔伯特空间中域间的均值嵌入,以及匹配域间的隐藏表示的二阶统计量来减小因RSS波动造成的域差异。该方法克服了传统的迁移学习方法只能通过学习浅层特征去减小域差异的缺点,有效地利用了深度自适应网络学习深度可迁移特征,减轻了RSS值波动带来的性能下降,提高了定位精度和稳健性。
针对上述问题,本发明创造性地给出了一种基于深度自适应网络的室内定位方法,通过实测数据的验证,说明了算法的实用性。
为解决现有技术中的问题,本发明提供了一种基于深度自适应网络的室内定位方法。
一种基于深度自适应网络的室内定位方法,其特征在于包括以下步骤:
步骤1.将需要定位的室内环境划分为等大小的格点区域,并记录相应的坐标信息;
步骤2.将移动设备依次置于定位环境中的各个格点,并记录下此刻来自各个接入点的RSS值以及相应的格点坐标信息,形成RSS离线指纹数据库,即为源域;
步骤3.收集待定位的移动设备的RSS值,形成目标域;
步骤4.知识迁移;
步骤5.将目标域数据输入到训练好的网络中,即可获得位置。
所述步骤2的详细步骤如下:获取数据并形成RSS指纹库,将移动设备依次置于每一个格点,记录下格点编号和来自于各个接入点的RSS值,形成RSS向量
Figure BDA0002174613380000021
此处ns为已知位置标记的所有RSS样本数量,相应的位置标记表示成yi∈{1,2,…,C},C=48为格点的数量。RSS值与相应的位置标记构成了指纹数据库,即源域Ds={Xs,ys},
其中,
Figure BDA0002174613380000031
所述步骤3的详细步骤如下:收集请求定位的移动设备的RSS值,形成目标域Dt={Xt},此处
Figure BDA0002174613380000032
为无位置标记的RSS样本形成的目标域数据矩阵,nt为收集的RSS样本数量。
所述步骤4的详细步骤如下:
步骤4-1.将带位置坐标信息的源域数据以及未知坐标信息的目标域数据输入到深度自适应网络中;
步骤4-2.在网络隐藏层的最后一层匹配源域和目标域在希尔伯特空间中的均值嵌入,形成第一个损失函数;
步骤4-3.在网络隐藏层的最后一层匹配源域和目标域的二阶统计量,形成第二个损失函数;
步骤4-4.在网络分类器层,利用交叉熵损失函数计算源域的训练损失,形成第三个损失函数;
步骤4-5.利用梯度下降法优化网络参数,最小化三个损失函数。
所述步骤4中涉及到的详细过程如下:
通过深度自适应网络完成知识迁移
4-1.将带位置坐标信息的源域数据以及未知坐标信息的目标域数据输入到深度自适应网络中,在网络隐藏层的最后一层得到源域和目标域的深度可迁移特征
Figure BDA0002174613380000033
Figure BDA0002174613380000034
其中,b为一个batch size,d为该隐藏层的神经元个数。
4-2.将源域和目标域的深度可迁移特征映射到高维的再生核希尔伯特空间中,匹配源域和目标域的均值嵌入,即最小化以下损失函数:
Figure BDA0002174613380000035
其中,φ为一个核映射,核矩阵Kij=φ(hi)Tφ(hj)=k(hi,hj),M为MMD矩阵,计算方式如下:
Figure BDA0002174613380000041
4-3.匹配域间隐藏表示Hs,Ht之间的二阶统计量来减小域差异,即最小化以下损失函数:
Figure BDA0002174613380000042
其中,Cov(Hs)和Cov(Ht)分别为源域和目标域隐藏表示的特征协方差矩阵,计算方式如下:
Cov(Hs)=(Hs)TJbHs (4)
Cov(Ht)=(Ht)TJbHt (5)
Jb为中心矩阵,
Figure BDA0002174613380000043
为单位矩阵,
Figure BDA0002174613380000044
为全1的列向量。
4-4.在网络分类器层,利用交叉熵损失函数计算源域的训练损失,即最小化以下损失函数:
Figure BDA0002174613380000045
其中,c(θ|xi,yi)为分类的softmax损失,θ为网络的参数。
4-5.利用梯度下降法优化网络参数,同时最小化以上三个损失函数,即最小化以下损失函数:
L=Ls+Lm+Lc (7)。
本发明的有益效果:
1.本发明利用深度迁移学习方法解决了因环境变化和异构设备而引起的RSS波动性问题,提高了定位的精度和稳健性,克服了传统匹配算法假设源域数据和目标域数据同分布在复杂多变的室内环境下不成立的缺点。
2.本发明基于深度自适应网络,学习深度可迁移特征去减小域差异,解决了背景技术中的迁移学习方法学习浅层特征去减小域差异的缺点。
3.本发明提出的基于深度自适应网络的室内定位方法是一种定位精度高、稳健性好的定位方法。
附图说明
图1为本发明的网络结构图;
图2为异构设备时技术背景中采用的定位方法和本发明方法的定位误差累计百分比;
图3为环境变化时技术背景中采用的定位方法和本发明方法的定位误差累积百分比。
具体的实施方式:
实施例1:
一种基于深度自适应网络的室内定位方法。
一种基于深度自适应网络的室内定位方法,其特征在于包括以下步骤:
步骤1.将需要定位的室内环境划分为等大小的格点区域,并记录相应的坐标信息;
步骤2.将移动设备依次置于定位环境中的各个格点,并记录下此刻来自各个接入点的RSS值以及相应的格点坐标信息,形成RSS离线指纹数据库,即为源域;
步骤3.收集待定位的移动设备的RSS值,形成目标域;
步骤4.知识迁移;
步骤5.将目标域数据输入到训练好的网络中,即可获得位置。
实施例2:
一种基于深度自适应网络的室内定位方法,其特征在于包括以下步骤:
步骤1.将需要定位的室内环境划分为等大小的格点区域,并记录相应的坐标信息;
步骤2.将移动设备依次置于定位环境中的各个格点,并记录下此刻来自各个接入点的RSS值以及相应的格点坐标信息,形成RSS离线指纹数据库,即为源域;
步骤3.收集待定位的移动设备的RSS值,形成目标域;
步骤4.知识迁移;
步骤5.将目标域数据输入到训练好的网络中,即可获得位置。
所述步骤2的详细步骤如下:获取数据并形成RSS指纹库,将移动设备依次置于每一个格点,记录下格点编号和来自于各个接入点的RSS值,形成RSS向量
Figure BDA0002174613380000061
此处ns为已知位置标记的所有RSS样本数量,相应的位置标记表示成yi∈{1,2,…,C},C=48为格点的数量。RSS值与相应的位置标记构成了指纹数据库,即源域Ds={Xs,ys},
其中,
Figure BDA0002174613380000062
所述步骤3的详细步骤如下:收集请求定位的移动设备的RSS值,形成目标域Dt={Xt},此处
Figure BDA0002174613380000063
为无位置标记的RSS样本形成的目标域数据矩阵,nt为收集的RSS样本数量。
所述步骤4的详细步骤如下:
步骤4-1.将带位置坐标信息的源域数据以及未知坐标信息的目标域数据输入到深度自适应网络中;
步骤4-2.在网络隐藏层的最后一层匹配源域和目标域在希尔伯特空间中的均值嵌入,形成第一个损失函数;
步骤4-3.在网络隐藏层的最后一层匹配源域和目标域的二阶统计量,形成第二个损失函数;
步骤4-4.在网络分类器层,利用交叉熵损失函数计算源域的训练损失,形成第三个损失函数;
步骤4-5.利用梯度下降法优化网络参数,最小化三个损失函数。
实施例3:
一种基于深度自适应网络的室内定位方法,其特征在于包括以下步骤:
步骤1.将需要定位的室内环境划分为等大小的格点区域,并记录相应的坐标信息;
步骤2.将移动设备依次置于定位环境中的各个格点,并记录下此刻来自各个接入点的RSS值以及相应的格点坐标信息,形成RSS离线指纹数据库,即为源域;
步骤3.收集待定位的移动设备的RSS值,形成目标域;
步骤4.知识迁移;
步骤5.将目标域数据输入到训练好的网络中,即可获得位置。
所述步骤2的详细步骤如下:获取数据并形成RSS指纹库,将移动设备依次置于每一个格点,记录下格点编号和来自于各个接入点的RSS值,形成RSS向量
Figure BDA0002174613380000071
此处ns为已知位置标记的所有RSS样本数量,相应的位置标记表示成yi∈{1,2,…,C},C=48为格点的数量。RSS值与相应的位置标记构成了指纹数据库,即源域Ds={Xs,ys},
其中,
Figure BDA0002174613380000072
实施例4:
一种基于深度自适应网络的室内定位方法,其特征在于包括以下步骤:
步骤1.将需要定位的室内环境划分为等大小的格点区域,并记录相应的坐标信息;
步骤2.将移动设备依次置于定位环境中的各个格点,并记录下此刻来自各个接入点的RSS值以及相应的格点坐标信息,形成RSS离线指纹数据库,即为源域;
步骤3.收集待定位的移动设备的RSS值,形成目标域;
步骤4.知识迁移;
步骤5.将目标域数据输入到训练好的网络中,即可获得位置。
所述步骤3的详细步骤如下:收集请求定位的移动设备的RSS值,形成目标域Dt={Xt},此处
Figure BDA0002174613380000073
为无位置标记的RSS样本形成的目标域数据矩阵,nt为收集的RSS样本数量。
实施例5:
一种基于深度自适应网络的室内定位方法,其特征在于包括以下步骤:
步骤1.将需要定位的室内环境划分为等大小的格点区域,并记录相应的坐标信息;
步骤2.将移动设备依次置于定位环境中的各个格点,并记录下此刻来自各个接入点的RSS值以及相应的格点坐标信息,形成RSS离线指纹数据库,即为源域;
步骤3.收集待定位的移动设备的RSS值,形成目标域;
步骤4.知识迁移;
步骤5.将目标域数据输入到训练好的网络中,即可获得位置。
所述步骤4的详细步骤如下:
步骤4-1.将带位置坐标信息的源域数据以及未知坐标信息的目标域数据输入到深度自适应网络中;
步骤4-2.在网络隐藏层的最后一层匹配源域和目标域在希尔伯特空间中的均值嵌入,形成第一个损失函数;
步骤4-3.在网络隐藏层的最后一层匹配源域和目标域的二阶统计量,形成第二个损失函数;
步骤4-4.在网络分类器层,利用交叉熵损失函数计算源域的训练损失,形成第三个损失函数;
步骤4-5.利用梯度下降法优化网络参数,最小化三个损失函数。
所述步骤4中涉及到的详细过程如下:
通过深度自适应网络完成知识迁移
4-1.将带位置坐标信息的源域数据以及未知坐标信息的目标域数据输入到深度自适应网络中,在网络隐藏层的最后一层得到源域和目标域的深度可迁移特征
Figure BDA0002174613380000081
Figure BDA0002174613380000082
其中,b为一个batch size,d为该隐藏层的神经元个数。
4-2.将源域和目标域的深度可迁移特征映射到高维的再生核希尔伯特空间中,匹配源域和目标域的均值嵌入,即最小化以下损失函数:
Figure BDA0002174613380000091
其中,φ为一个核映射,核矩阵Kij=φ(hi)Tφ(hj)=k(hi,hj),M为MMD矩阵,计算方式如下:
Figure BDA0002174613380000092
4-3.匹配域间隐藏表示Hs,Ht之间的二阶统计量来减小域差异,即最小化以下损失函数:
Figure BDA0002174613380000093
其中,Cov(Hs)和Cov(Ht)分别为源域和目标域隐藏表示的特征协方差矩阵,计算方式如下:
Cov(Hs)=(Hs)TJbHs (4)
Cov(Ht)=(Ht)TJbHt (5)
Jb为中心矩阵,
Figure BDA0002174613380000094
为单位矩阵,
Figure BDA0002174613380000095
为全1的列向量。
4-4.在网络分类器层,利用交叉熵损失函数计算源域的训练损失,即最小化以下损失函数:
Figure BDA0002174613380000096
其中,c(θ|xi,yi)为分类的softmax损失,θ为网络的参数。
4-5.利用梯度下降法优化网络参数,同时最小化以上三个损失函数,即最小化以下损失函数:
L=Ls+Lm+Lc (7)。
实施例6:
1.实验场地布置
实验环境为308.4m2的图书馆环境,室内有座椅板凳及书架等,在定位区域可探测到的WiFi接入点数量为620个,先将场地划分为48个格点。
2.获取数据并形成RSS指纹库
将移动设备依次置于每一个格点,记录下格点编号和来自于各个接入点的RSS值,形成RSS向量
Figure BDA0002174613380000101
此处ns为已知位置标记的所有RSS样本数量,相应的位置标记表示成yi∈{1,2,…,C},C=48为格点的数量。RSS值与相应的位置标记构成了指纹数据库,即源域Ds={Xs,ys},其中,
Figure BDA0002174613380000102
3.收集待定位设备的RSS值
收集请求定位的移动设备的RSS值,形成目标域Dt={Xt},此处
Figure BDA0002174613380000103
为无位置标记的RSS样本形成的目标域数据矩阵,nt为收集的RSS样本数量。
4.通过深度自适应网络完成知识迁移
4-1.将带位置坐标信息的源域数据以及未知坐标信息的目标域数据输入到深度自适应网络中,在网络隐藏层的最后一层得到源域和目标域的深度可迁移特征
Figure BDA0002174613380000104
Figure BDA0002174613380000105
其中,b为一个batch size,d为该隐藏层的神经元个数。
4-2.将源域和目标域的深度可迁移特征映射到高维的再生核希尔伯特空间中,匹配源域和目标域的均值嵌入,即最小化以下损失函数:
Figure BDA0002174613380000111
其中,φ为一个核映射,核矩阵Kij=φ(hi)Tφ(hj)=k(hi,hj),M为MMD矩阵,计算方式如下:
Figure BDA0002174613380000112
4-3.匹配域间隐藏表示Hs,Ht之间的二阶统计量来减小域差异,即最小化以下损失函数:
Figure BDA0002174613380000113
其中,Cov(Hs)和Cov(Ht)分别为源域和目标域隐藏表示的特征协方差矩阵,计算方式如下:
Cov(Hs)=(Hs)TJbHs (4)
Cov(Ht)=(Ht)TJbHt (5)
Jb为中心矩阵,
Figure BDA0002174613380000114
为单位矩阵,
Figure BDA0002174613380000115
为全1的列向量。
4-4.在网络分类器层,利用交叉熵损失函数计算源域的训练损失,即最小化以下损失函数:
Figure BDA0002174613380000116
其中,c(θ|xi,yi)为分类的softmax损失,θ为网络的参数。
4-5.利用梯度下降法优化网络参数,同时最小化以上三个损失函数,即最小化以下损失函数:
L=Ls+Lm+Lc (7)
5.将目标域数据Xt输入到步骤4获得的自适应网络中,可以获得目标域的位置标记,即为定位结果。
本发明分别对实验环境中2个目标域进行实测定位,其中一个目标域是在不同时间用不同设备采集RSS值获得的数据样本,即异构设备条件下的定位,另一个目标域为不同时间下相同设备采集RSS值获得的数据样本,即环境变化条件下的定位。每个目标域带有3120个测试样本,在异构设备条件下的平均定位误差为2.67m,在环境变化条件下的平均定位误差为2.58m。图2为异构设备时技术背景中采用的定位方法和本发明方法的定位误差累计百分比,图3为环境变化时技术背景中采用的定位方法和本发明方法的定位误差累积百分比。技术背景中的方法在每个目标域上的定位效果都明显低于本发明的方法,这是因为该方法通过学习一个浅层映射将源域和目标域映射到该子空间中,而浅层映射仅仅能学习到浅层的表示特征,这对于减小域差异是明显不足的。本发明提出的方法克服了传统的迁移学习方法只能通过学习浅层特征去减小域差异的缺点,有效地利用了深度自适应网络学习深度可迁移特征,即使在RSS值波动性较大的目标域中仍能取得较好的定位效果。

Claims (1)

1.一种基于深度自适应网络的室内定位方法,其特征在于包括以下步骤:
步骤1.将需要定位的室内环境划分为等大小的格点区域,并记录相应的坐标信息;
步骤2.将移动设备依次置于定位环境中的各个格点,并记录下此刻来自各个接入点的RSS值以及相应的格点坐标信息,形成RSS离线指纹数据库,即为源域,获取数据并形成RSS指纹库,将移动设备依次置于每一个格点,记录下格点编号和来自于各个接入点的RSS值,形成RSS向量
Figure FDA0003331694200000011
i=1,2,3,…,ns,此处ns为已知位置标记的所有RSS样本数量,相应的位置标记表示成yi∈{1,2,…,C},C=48为格点的数量,RSS值与相应的位置标记构成了指纹数据库,即源域
Figure FDA0003331694200000012
其中,
Figure FDA0003331694200000013
Figure FDA0003331694200000014
步骤3.收集待定位的移动设备的RSS值,形成目标域,收集请求定位的移动设备的RSS值,形成目标域
Figure FDA0003331694200000015
此处
Figure FDA0003331694200000016
为无位置标记的RSS样本形成的目标域数据矩阵,nt为收集的RSS样本数量;
步骤4.知识迁移,通过深度自适应网络完成知识迁移
步骤4-1.将带位置坐标信息的源域数据以及未知坐标信息的目标域数据输入到深度自适应网络中,在网络隐藏层的最后一层得到源域和目标域的深度可迁移特征
Figure FDA0003331694200000017
Figure FDA0003331694200000018
其中,b为一个batch size,d为该隐藏层的神经元个数;
步骤4-2.将源域和目标域的深度可迁移特征映射到高维的再生核希尔伯特空间中,匹配源域和目标域的均值嵌入,即最小化以下损失函数:
Figure FDA0003331694200000019
其中,φ为一个核映射,核矩阵Kij=φ(hi)Tφ(hj)=k(hi,hj),Mij为MMD矩阵,计算方式如下:
Figure FDA0003331694200000021
步骤4-3.匹配域间隐藏表示Hs,Ht之间的二阶统计量来减小域差异,即最小化以下损失函数:
Figure FDA0003331694200000022
其中,Cov(Hs)和Cov(Ht)分别为源域和目标域隐藏表示的特征协方差矩阵,计算方式如下:
Cov(Hs)=(Hs)TJbHs (4)
Cov(Ht)=(Ht)TJbHt (5)
Jb为中心矩阵,
Figure FDA0003331694200000023
为单位矩阵,
Figure FDA0003331694200000024
为全1的列向量;
步骤4-4.在网络分类器层,利用交叉熵损失函数计算源域的训练损失,即最小化以下损失函数:
Figure FDA0003331694200000025
其中,c(θ|xi,yi)为分类的softmax损失,θ为网络的参数;
步骤4-5.利用梯度下降法优化网络参数,同时最小化以上三个损失函数,即最小化以下损失函数:
L=Ls+Lm+Lc (7);
步骤5.将目标域数据输入到训练好的网络中,即可获得位置。
CN201910774488.6A 2019-08-21 2019-08-21 一种基于深度自适应网络的室内定位方法 Active CN110536257B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910774488.6A CN110536257B (zh) 2019-08-21 2019-08-21 一种基于深度自适应网络的室内定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910774488.6A CN110536257B (zh) 2019-08-21 2019-08-21 一种基于深度自适应网络的室内定位方法

Publications (2)

Publication Number Publication Date
CN110536257A CN110536257A (zh) 2019-12-03
CN110536257B true CN110536257B (zh) 2022-02-08

Family

ID=68662425

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910774488.6A Active CN110536257B (zh) 2019-08-21 2019-08-21 一种基于深度自适应网络的室内定位方法

Country Status (1)

Country Link
CN (1) CN110536257B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111885703B (zh) * 2020-07-21 2021-04-23 电子科技大学 一种室内定位方法
CN111935629B (zh) * 2020-07-30 2023-01-17 广东工业大学 一种基于环境特征迁移的自适配定位方法
CN112954632B (zh) * 2021-01-26 2022-01-28 电子科技大学 一种基于异构迁移学习的室内定位方法
CN113132931B (zh) * 2021-04-16 2022-01-28 电子科技大学 一种基于参数预测的深度迁移室内定位方法
CN115103441B (zh) * 2022-06-20 2024-04-05 燕山大学 一种基于先验知识和迁移学习的定位方法
CN116233747B (zh) * 2023-03-09 2023-12-22 江苏亨鑫科技有限公司 一种基于迁移学习更新指纹库的ble定位方法、装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105574859A (zh) * 2015-12-14 2016-05-11 中国科学院深圳先进技术研究院 一种基于ct图像的肝脏肿瘤分割方法及装置
CN106874957A (zh) * 2017-02-27 2017-06-20 苏州大学 一种滚动轴承故障诊断方法
CN107037399A (zh) * 2017-05-10 2017-08-11 重庆大学 一种基于深度学习的Wi‑Fi室内定位方法
CN108449295A (zh) * 2018-02-05 2018-08-24 西安电子科技大学昆山创新研究院 基于rbm网络和bp神经网络的联合调制识别方法
CN109102126A (zh) * 2018-08-30 2018-12-28 燕山大学 一种基于深度迁移学习的理论线损率预测模型

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9924490B2 (en) * 2013-10-09 2018-03-20 International Business Machines Corporation Scaling multi-core neurosynaptic networks across chip boundaries
CN108234370B (zh) * 2017-12-22 2020-12-15 西安电子科技大学 基于卷积神经网络的通信信号调制方式识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105574859A (zh) * 2015-12-14 2016-05-11 中国科学院深圳先进技术研究院 一种基于ct图像的肝脏肿瘤分割方法及装置
CN106874957A (zh) * 2017-02-27 2017-06-20 苏州大学 一种滚动轴承故障诊断方法
CN107037399A (zh) * 2017-05-10 2017-08-11 重庆大学 一种基于深度学习的Wi‑Fi室内定位方法
CN108449295A (zh) * 2018-02-05 2018-08-24 西安电子科技大学昆山创新研究院 基于rbm网络和bp神经网络的联合调制识别方法
CN109102126A (zh) * 2018-08-30 2018-12-28 燕山大学 一种基于深度迁移学习的理论线损率预测模型

Also Published As

Publication number Publication date
CN110536257A (zh) 2019-12-03

Similar Documents

Publication Publication Date Title
CN110536257B (zh) 一种基于深度自适应网络的室内定位方法
CN106793086B (zh) 一种室内定位方法
CN109444813B (zh) 一种基于bp和dnn双神经网络的rfid室内定位方法
WO2019233054A1 (zh) 一种智慧教室内的指纹定位方法及***
CN104853435B (zh) 一种基于概率的室内定位方法和装置
CN110536245B (zh) 一种基于深度学习的室内无线定位方法及***
CN104392414A (zh) 一种区域cors坐标时间序列噪声模型的建立方法
CN108627798B (zh) 基于线性判别分析和梯度提升树的wlan室内定位算法
CN110728411A (zh) 一种基于卷积神经网络的高低空区域联合降雨预测方法
CN107677989B (zh) 一种基于rssi最大值进行rssi去除噪声的室内位置定位方法
CN107360552B (zh) 一种多分类器全局动态融合的室内定位方法
CN111854732B (zh) 一种基于数据融合和宽度学习的室内指纹定位方法
CN112653991A (zh) 一种基于深度学习的TebNet神经网络模型的WLAN室内定位方法
CN104680151B (zh) 一种顾及雪覆盖影响的高分辨全色遥感影像变化检测方法
CN107290714B (zh) 一种基于多标识指纹定位的定位方法
CN116008671A (zh) 一种基于时差和聚类的闪电定位方法
Zhang et al. Dual-band wi-fi based indoor localization via stacked denosing autoencoder
CN111885703B (zh) 一种室内定位方法
CN109858517B (zh) 一种以运动方向为主导的轨迹相似性度量方法
CN108731679A (zh) 移动机器人环境特征定位方法
CN108696818B (zh) Wi-Fi指纹定位的距离度量方法及***
CN114679683A (zh) 一种基于派生指纹迁移的室内智能定位方法
CN110321528A (zh) 一种基于半监督地理空间回归分析的高光谱影像土壤重金属浓度评估方法
WO2022242018A1 (zh) 一种基于改进的cnn模型的室内目标定位方法
CN109508749B (zh) 一种基于深度知识表达的聚类分析***及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: An indoor location method based on depth adaptive network

Effective date of registration: 20220523

Granted publication date: 20220208

Pledgee: Jinniu sub branch of Bank of Chengdu Co.,Ltd.

Pledgor: CHENGDU DIANKE HUIAN TECHNOLOGY Co.,Ltd.

Registration number: Y2022510000134