CN112148894B - 一种基于深度学习和定性空间推理的泛在道路信息定位方法 - Google Patents
一种基于深度学习和定性空间推理的泛在道路信息定位方法 Download PDFInfo
- Publication number
- CN112148894B CN112148894B CN202011055015.XA CN202011055015A CN112148894B CN 112148894 B CN112148894 B CN 112148894B CN 202011055015 A CN202011055015 A CN 202011055015A CN 112148894 B CN112148894 B CN 112148894B
- Authority
- CN
- China
- Prior art keywords
- road
- azimuth
- semantic
- matching
- instance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000013135 deep learning Methods 0.000 title claims abstract description 33
- 238000012549 training Methods 0.000 claims abstract description 36
- 239000013598 vector Substances 0.000 claims description 147
- 239000011159 matrix material Substances 0.000 claims description 51
- 238000012554 master batch record Methods 0.000 claims description 35
- 241000969729 Apteryx rowi Species 0.000 claims description 34
- 238000013507 mapping Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 16
- 238000010276 construction Methods 0.000 claims description 9
- 239000003550 marker Substances 0.000 claims description 8
- 230000011218 segmentation Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 3
- 239000002131 composite material Substances 0.000 claims description 3
- 238000004519 manufacturing process Methods 0.000 claims description 3
- 230000001502 supplementing effect Effects 0.000 claims description 3
- 239000000470 constituent Substances 0.000 claims description 2
- 230000006872 improvement Effects 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 9
- 238000012360 testing method Methods 0.000 description 7
- 238000012795 verification Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000011084 recovery Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000000692 anti-sense effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/31—Indexing; Data structures therefor; Storage structures
- G06F16/316—Indexing structures
- G06F16/322—Trees
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3347—Query execution using vector based model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/38—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/387—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Library & Information Science (AREA)
- Animal Behavior & Ethology (AREA)
- Remote Sensing (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明提供一种基于深度学习和定性空间推理的泛在道路信息定位方法,训练基于深度学习的道路语义匹配模型以适应多样的道路位置描述和道路或其局部位置的匹配;构建包含道路本体模型的实例和基于ELLGs的简化的道路之间的定性方位关系的道路语义网络;将泛在道路描述解析为参考道路描述和相对于参考道路的定性方位关系;基于道路语义匹配模型获取参考道路描述在道路语义网络中的匹配实例;基于匹配实例和定性方位关系对道路语义网络进行语义查询以实现定性方位推理并获取目标道路。本发明能够适应从包含定性方位信息的泛在道路描述定位到空间位置的应用。
Description
技术领域
本发明涉及泛在位置信息的定位领域,特别是涉及一种从包含定性方位信息的泛在道路描述中定位空间道路的方法。
背景技术
道路是一类重要的空间基础设施,对其位置的描述和理解在社会生活、交通运输、道路规划等方面具有重要意义。通过自然语言描述的道路位置因更加灵活且符合人们的空间认知习惯而具有更广阔的应用前景。其中,最简单的道路位置描述是道路名,而更加复杂的包含了定性方位信息的描述表达了泛在道路位置。并且,道路内部的定性方位信息表达了道路的局部位置。例如,在道路名中蕴含“东”、“西”等方位词从而将长道路划分为子道路,或者使用包含方位信息的非标准描述来表达道路的局部位置,如“某某路的西段”。而道路之间的定性方位信息则间接地描述了相对于参考道路的其他道路,从而丰富了道路的语义信息。例如,基于***的语义网DBpedia中,定性方位关系占据了空间位置关联的语义关系中近乎50%的比例。因此,从包含定性方位信息的泛在道路描述中定位到空间道路是实现智能化的查询、导航、指令发布等位置服务的重要研究内容。
现有的geocoding技术和定性空间推理的研究为自然语言描述到空间位置的转换提供了支持。其中,geocoding技术通过将地名、地址等语义信息与包含空间信息的参考数据库进行匹配来获得相应的空间位置信息。传统的geocoding技术采用基于文本比较的匹配方法,通过计算字符串之间转化所需的编辑操作数(如Levenshtein距离)或者字符串中单词的重叠程度(如Jaccard相似度系数)来衡量相似度。而近年来的自然语言处理技术的发展表明,将机器学习应用于匹配领域具有巨大的潜力。从而,机器学习的新兴分支——深度学习,逐渐被应用于geocoding技术中的匹配过程。基于深度学习的匹配方法强调基于上下文的语义关联,因此无论待比较文本在字面上是相似的,还是仅具有部分文字重叠,都能够进行有效的匹配。例如,最先进的深度文本匹配模型之一的增强顺序推理模型(ESIM)被应用于实现非结构化的复杂语法的地址匹配。上述匹配过程涉及的道路位置的语义信息仅为标准地址中的道路名,因此现有的geocoding技术的应用能够有效地实现仅包含道路名的道路位置描述到空间位置的转换。
然而,道路位置描述有别于标准地址的描述,其中的定性方位信息可以进一步地表达道路的局部位置,从而,将包含内部方位信息的道路位置描述匹配到道路的局部位置更加合理。而上述匹配尚未得到研究和应用。
此外,定性空间推理是从理解空间位置间的定性空间关系的角度实现参考空间位置到目标空间位置的转换。相较于GeoSPARQL依赖语义查询过程中的实时计算来实现定性空间推理,通过直接的语义查询实现的定性空间推理的效率更高。并且,GeoSPARQL主要提供了定性拓扑关系的算子,缺乏对道路的八个方向的定性方位关系的算子的支持。然而,现有的道路之间的显式的定性方位关系,如DBpedia提供的空间道路之间的八个方向的定性方位关系,并不完善并且有缺陷,从而需要从道路的空间几何信息中派生出准确的、足够的定性方位信息以支持通过直接的语义查询来实现定性方位推理。然而,这带来了海量的定性方位关系的存储问题。例如,完整地表达N条道路之间的定性方位信息需要至少表达N2个定性方位关系,即,10000条道路将带来超过1亿个定性方位关系的存储。因此必须考虑道路之间的海量的定性方位关系的简化表达。
现有研究能够基于网格索引和R*数索引构造聚类关系NE,NW,SE和SW来简化海量的定性方位关系的表达。然而,基于统一大小的网格的聚类关系的简化效果有限,还能够进一步被简化;而R*树中节点的最小包围盒(MBR)之间的定性方位关系不唯一,导致需要使用更多的MBR来构造更多的聚类关系。因此需要对定性方位关系的聚类方法进行优化以加强海量定性方位关系的简化效果。
相关术语:
NE东北
NW西北
SE东南
SW西南
S南
N北
E东
W西
W-E方向 东西方向
S-N方向 南北方向
ELLGs等经纬度全球离散格网
MBR最小包围盒
Stanford CoreNLP斯坦福大学的自然语言处理工具包
Word2Vec一种获取单词的向量表示的模型
ESIM(Enhanced Sequential Inference Model)增强顺序推理模型
LSTM(Long Short-Term Memory)长短期记忆网络
GRU(Gated Recurrent Unit)门控循环单元
发明内容
本发明的目的是针对理解泛在道路描述中的道路内部或外部的定性方位信息并实现从语义描述到空间位置的转换的需求,提出了一种从包含定性方位信息的泛在道路描述中定位空间道路的方法。
为了适应从包含定性方位信息的泛在道路描述中定位空间道路时的需求,即包含道路内部方位信息的描述和道路局部位置的匹配以及道路之间的海量的定性方位关系的简化,本发明提出:(1)通过本体技术建立道路和其局部位置在语义和空间方面的联系,并优化现有的匹配方法以适应多样的道路位置描述和道路或其局部的匹配需求,从而拓展geocoding技术的应用范围;(2)通过引入ELLGs实施多尺度的聚类关系以更大程度地简化道路之间的海量的定性方位关系,从而支持构建语义网络并以语义查询的方式实现定性方位推理。等经纬度离散网格(ELLGs)基于四叉树结构将全球空间离散成多尺度网格,多尺度网格能够表达空间任意范围并通过网格编码(k,column,row)进行索引。因此,利用多尺度网格构造聚类关系时具有以下优势:其一,同一尺度的网格之间的定性方位关系是唯一确定的;其二,无法由小尺度网格的聚类关系推断出的定性方位关系可以通过大尺度网格的聚类关系进行简化。
本发明的技术方案是一种基于深度学习和定性空间推理的泛在道路信息定位方法,包括下列步骤:
步骤1,基于道路数据集训练基于深度学习的道路语义匹配模型,实现方式包括以下子步骤,
步骤a1,利用道路数据集,对道路本体模型中的类进行实例化以构建道路实例;
步骤a2,利用道路实例,根据数据集标记策略来制作标记数据集和候选匹配实例;
步骤a3,将标记数据集从文本转化为向量表达,并获得候选匹配实例的向量表达;
步骤a4,利用标记数据集,根据基于深度学习的道路语义匹配模型训练道路数据集上的道路语义匹配模型;
步骤2,基于道路数据集构建道路语义网络,实现方式包括以下子步骤,
步骤b1,将步骤1中的道路实例作为语义网络中的节点,将道路实例间的语义关系作为语义网络中的语义关系;
步骤b2,利用ELLGs构造多尺度的聚类关系NE、NW、SE和SW来简化道路之间的NE,NW,SE,SW,N,S,E,W关系,并将聚类关系作为语义网络中的语义关系;
步骤b3,定义语义推理规则以建立道路实例和其MBR的NE,NW,SE,SW顶点所在的多尺度网格的直接关联;
步骤b4,建立道路实例之间的NE,NW,SE,SW,N,S,E,W关系和语义网络中的语义关系的映射;
步骤3,将泛在道路描述解析为参考道路描述和相对于参考道路的定性方位关系;
步骤4,根据步骤1中的道路数据集上的道路语义匹配模型,将参考道路描述匹配到相似度最高的候选匹配实例,实现方式包括以下子步骤,
步骤c1,将参考道路描述从文本转化为向量表达;
步骤c2,根据道路语义匹配模型,获取参考道路描述和所有候选匹配实例的相似度,并选择相似度最高的候选匹配实例作为匹配实例;
步骤5,基于步骤3中的定性方位关系和步骤4中的匹配实例构造语义查询语句,对步骤2中的道路语义网络进行语义查询以推理目标道路。
而且,步骤a1中所述道路本体模型中的所有概念被组织成道路、空间范围和多尺度空间范围三个类及其子类。道路类描述了现实中存在的道路的语义信息和层次化的组成部分,包括道路名、路段、路口和方位道路子类。空间范围类描述了由MBR表达的空间范围,包括NE,NW,SE,SW四个顶点子类。多尺度空间范围类描述了由ELLGs的网格编码表达的多尺度空间范围,包括多尺度网格编码子类,并且其扩展了WGS84本体来继承经度和纬度两个数据属性。将道路类与空间范围类、多尺度空间范围类关联以表达道路和其组成部分的空间信息。
而且,步骤a1中,路段被定义为相邻路口之间的局部道路,方位道路被定义为由对应于内部方位的路段组成的局部道路,并且只对道路名中不包含方位信息的道路划分其方位道路。方位道路的划分依赖于路口,即以路段为基本单元,在W-E方向或S-N方向上为路段分配相对于道路的内方位:首先排除两类路口,第一类是控制道路空间范围的路口,第二类是导致路段被截断的路口;然后基于唯一可用的路口为路段分配W、E方向或S、N方向,或者在多个可用的路口的情况下,基于最靠近三等分线的路口,为路段分配W、C(中)、E方向或S、C(中)、N方向;最后为路段分配复合方向NE,NW,SE,SW。
而且,步骤a1中,采用“道路名+Code(SW)+Code(NE)”的方式来命名方位道路,Code(SW)和Code(NE)分别为方位道路的MBR的SW顶点和NE顶点的基于ELLGs的网格编码,选择它们的标准是能够区分对应于不同内部方位信息的方位道路,因此,首先获取道路名中不包含方位信息的道路的所有方位道路的MBR,然后按照尺度递增的顺序,逐尺度地计算各MBR的SW顶点和NE顶点的网格编码,直到该尺度下任意两个MBR的SW顶点的网格编码不相同并且NE顶点的网格编码也不相同。
而且,步骤a2中所述标记策略如下:
(1)根据道路实例来模拟不包含方位信息的参考道路描述和包含方位信息的非标准的参考道路描述:
①移除道路名中的方位信息以转化为不包含方位信息的描述;
②为不包含方位信息的道路名补充八种方位信息来获取包含方位信息的非标准描述;
(2)为每一个参考道路描述获取相同数量的匹配的道路实例和不匹配的道路实例:
①如果参考道路描述不包含方位信息,则匹配的道路实例是转化为该描述之前的道路名,不匹配的道路实例从除匹配的道路实例之外的道路实例中随机选择;
②如果参考道路描述为包含方位信息的非标准描述,则按照如下优先级获取匹配的道路实例:
i.包含了相同或近义的方位信息的道路名;
ii.基于道路本体模型建模的方位道路;
iii.不包含方位信息的道路名;
不匹配的道路实例从除匹配的道路实例之外的道路实例中随机选择,而且优先从包含相反的方位信息的道路实例中随机选择。
并且,标记数据集中的道路实例即为候选匹配实例。
而且,步骤a3中所述标记数据集从文本转换为向量格式的方式如下:
①利用由道路数据集中的道路名和标记数据集组成的语料库来训练词向量;
②构造语料库中的单词的词向量字典;
③通过分割字符串将标记数据集转化为词组表示;
④通过查找词向量字典,将标记数据集的词组表示转换为向量矩阵表示。
并且,从标记数据集的向量矩阵表示中获得候选匹配实例的向量矩阵。
而且,步骤a4中所述基于深度学习的道路语义匹配模型是对ESIM模型的改进和拓展:
①输入层:该层采用三个向量表示作为输入,a为参考道路描述的向量,b为道路实例的向量,c为新引入的方位向量;
②输入编码层:该层首先连接b和c以获得语义增强的向量b’;然后将a和b’分别送入双向GRU模型生成新的向量和/>本发明使用GRU模型替代原始ESIM中的LSTM模型;
③局部推理层:该层首先获得和/>的注意力权重矩阵eij,然后通过注意力机制从和/>中捕获相关单词且生成/>和/>接着通过连接/> 二者的差和点积,来增强局部推理信息,标记为ma,类似地获得mb’;
④推理组合层:该层首先使用双向GRU模型来提取ma和mb’的更高层次表达,标记为va和vb’;然后有别于原始ESIM模型计算所有隐藏状态的平均池和最大池并直接连接二者来获取全局推理结果,本发明分别对va和vb’计算所有隐藏状态的最大池,获取最终隐藏状态,并连接了最终隐藏状态,最大池,二者的差和点积,来获得增强的全局推理结果;
⑤预测层:该层利用包含三个全连接层的多层感知器输出待比较对的预测结果。
而且,步骤a4中所述训练道路数据集上的道路语义匹配模型时,将标记数据集划分为训练集、验证集和测试集:在训练集上,对不同的超参数集(学习率、隐藏节点数、批处理大小)进行多周期的训练;在验证集上,首先根据各超参数集的各周期的道路语义匹配模型预测所有数据对的准确性来确定各超参数集的最佳训练周期;然后基于各超参数集的最佳训练周期的道路语义匹配模型,获取所有参考道路描述的匹配实例并通过匹配实例的准确性来确定最优超参数集;在测试集上,基于最优超参数集的最佳训练周期的道路语义匹配模型,获取所有参考道路描述的匹配实例并评估匹配实例的准确性。
而且,步骤a4和步骤c2中所述获取参考道路描述的匹配实例的方式如下,
①建立方位道路和其对应的道路内部的方位信息的映射关系;
②获取由参考道路描述和单个候选匹配实例组成的数据对的方位向量:如果参考道路描述包含方位信息,候选匹配实例是方位道路,并且方位道路中的道路名和参考道路描述中的道路名相同,方位道路对应的道路内部的方位信息中包含参考道路描述中的方位信息,则方位向量为参考道路描述中的方位信息的词向量;否则,方位向量为零向量。连接所有的方位向量构建方位向量矩阵;
③连接参考道路描述的向量,将其扩充成与候选匹配实例的向量矩阵相同大小的向量矩阵;
④将参考道路描述的向量矩阵、候选匹配实例的向量矩阵、方位向量矩阵作为道路语义匹配模型的输入,获得相似度预测值的向量矩阵;
⑤选择相似度预测值的向量矩阵中的最大值对应的候选匹配实例作为匹配实例。
而且,步骤b2中,将道路之间的NE、NW、SE和SW关系转化为其MBR的相应顶点的NE、NW、SE和SW关系,将道路之间的N、S、E和W关系转化为其MBR的两个相邻顶点的NE、NW、SE和SW关系的组合,通过简化顶点之间的NE、NW、SE和SW关系来实现道路之间的NE、NW、SE、SW、N、S、E和W关系的简化。并且,利用ELLGs的多尺度网格构造聚类关系NE、NW、SE和SW来简化顶点之间的NE、NW、SE和SW关系。根据提出的基于ELLGs的多尺度简化算法构造聚类关系NE、NW、SE和SW的方式如下,
①初始化尺度k=0;
②计算道路实例的MBR的顶点所在的尺度为k的网格集合GridSetk,0≤k≤Lmax;
③建立网格集合GridSetk中的网格gridi(k,columni,rowi)和其关联的道路语义的映射Mapk(gridi,roads);
④计算GridSetk的网格编码范围,得到co1umnA≤columni≤columnB,rowA≤rowi≤rowB;
⑤如果columnA<columnB且rowA<rowB,则执行⑥到⑧;否则,令k=k+1,并返回②;
⑥通过GridSetk和Mapk(gridi,roads)来构造GridSetk-1中同一行网格内的NE、NW关系,并加入定性方位关系集合DirectionSetk;
⑦通过GridSetk和Mapk(gridi,roads)来构造GridSetk-1中同一列网格内的NE、NW关系,并加入定性方位关系集合DirectionSetk;
⑧令k=k+1,并返回②。
并且,不需要额外地构造聚类关系SW和SE,因为它们和NE、NW关系是相逆的。
而且,步骤b3中定义了四条语义推理规则来分别建立道路实例和其MBR的NE,NW,SE,SW顶点所在的多尺度网格的直接关联;
而且,步骤c1所述将参考道路描述转化为向量格式的方式如下:
①通过字符串分割获得参考道路描述的词组;
②通过查找词向量字典,将参考道路描述的词组转化为向量。
本发明创造性地提出了一种泛在道路信息的定位方法,该方法首先提出了一种道路本体模型,以描述道路及其局部位置的语义信息、空间信息及其联系;然后训练了一种基于深度学习的道路语义匹配模型,以适应多样的道路位置描述和道路或其局部位置的匹配需求;接着提出了一种基于ELLGs的多尺度简化算法来简化道路之间的海量的定性方位关系,并构建了包含简化的定性方位关系的道路语义网络,以支持通过语义查询的方式进行高效的定性方位推理。从而,对泛在道路描述进行解析后,通过基于道路语义匹配模型的相似性匹配以及基于道路语义网络的定性方位推理,实现了从泛在道路描述到空间位置的转换。本发明能够支持理解泛在道路描述中的定性方位信息并定位到空间道路的应用。
附图说明
图1为本发明实施例道路本体模型图。
图2为本发明实施例道路内部方位划分示意图,(a)为排除的两类路口示意图,(b)为基于唯一可用的路口,为路段分配W、E方向或S、N方向示意图,(c)为在多个可用的路口的情况下,基于最靠近三等分线的路口,为路段分配W、C、E方向或S、C、N方向示意图。
图3为本发明实施例获取方位道路命名中的网格编码的流程图。
图4为本发明实施例基于深度学习的道路语义匹配模型的结构图。
图5为本发明实施例训练基于深度学习的道路语义匹配模型的流程图。
图6为本发明实施例基于ELLGs的定性方位关系的多尺度简化算法的示意图,图6(a)为GridSetk-1中同一行网格对应于GridSetk中相邻两行网格,GridSetk-1中同一列网格对应于GridSetk中相邻两列网格的示意图;图6(b)为通过GridSetk和Mapk(gridi,roads)来构造相邻两行或相邻两列的网格之间的NE关系和NW关系示意图。
图7为本发明实施例基于ELLGs的定性方位关系的多尺度简化算法的流程图。
图8为本发明实施例的流程图。
具体实施方式
以下结合附图和实施例详细说明本发明的技术方案。
本发明实施例提供一种基于深度学习和定性空间推理的泛在道路信息定位方法,包括下列步骤:
步骤1,基于道路数据集训练基于深度学习的道路语义匹配模型。
该步骤可以细分为四个子步骤:
步骤a1,利用道路数据集,对道路本体模型中的类进行实例化以构建道路实例;
在步骤a1中,提出了一种道路本体模型(如图1),该模型包含道路、空间范围和多尺度空间范围三个类及其子类。
道路类描述了现实存在的道路的语义信息和层次化的组成部分,包括道路名、路段、路口和方位道路子类,分别由语义关系rd:hasname,rd:hassegment,rd:hasintersec,rd:haspart表示。其中,道路名子类的实例可能包含定性方位信息,如“HiawathaBoulevard East”,也可能不包含定性方位信息,如“Hertel Avenue”;路段子类被定义为相邻路口之间的局部道路,其实例由编号表示,如“22921”;路口子类被定义为不同道路的交点;方位道路子类被定义为由对应于内部方位的路段组成的局部道路,并且只描述道路名中不包含方位信息的道路的方位道路,因此,道路本体模型中包含两种类型的语义关系:一种适用于所有道路;另一种只针对道路名中不包含方位信息的道路。
空间范围类和多尺度空间范围类描述了两种类型的空间信息,将其与道路类及其子类关联可以表达道路和其组成的空间信息。其中,空间范围类描述了MBR的空间范围,其包含NE、SE、NW、SW四个顶点子类,分别由语义关系rd:hasne,rd:hasse,rd:hasnw,rd:hassw表示;多尺度空间范围类描述了由ELLGs的网格编码表达的多尺度空间范围,其包含了多尺度的网格编码子类,如rd:code1_k,均由语义关系rd:hascode表达,并且,其通过语义关系rd:hasref扩展了WGS84本体来继承经度longitude和纬度latitude两个数据属性(经度、纬度到多尺度网格编码(k,column,row)的转换按照公式(1)计算),从而建立了多尺度网格和路口、顶点的关联,并间接地建立了多尺度网格和道路的关联。因此,网格之间的定性方位关系,如语义关系rd:NE,可以映射到网格关联的道路之间的定性方位关系。
其中,floor()表示向下取整,pow()表示幂函数,%表示取余,column为列号,row为行号。
并且,对方位道路子类进行实例化时,依赖路口对道路内部进行划分,即以路段为基本单元,在W-E方向或S-N方向上为路段分配相对于道路的内方位。划分道路内部方位的方式如下(如图2):
①排除两类路口:第一类是控制道路空间范围的路口,如图2(a)中的A、B、C;第二类是导致路段被截断的路口,如图2(a)中的D;
②基于唯一可用的路口,为路段分配W、E方向或S、N方向,例如图2(b)中,根据N1,为S1分配W和S方向,为S2分配E和N方向;或者在多个可用的路口的情况下,基于最靠近三等分线的路口,为路段分配W、C(中)、E方向或S、C(中)、N方向,例如图2(c)中,根据N1和N3,为S1分配W和S方向,为S2和S3分配C方向,为S4分配E和N方向;
③为路段分配复合方向,例如图2(b)中,为S1分配SW方向,为S2分配NE方向;图2(c)中,为S1分配SW方向,为S4分配NE方向。
并且,方位道路实例采用“道路名+Code(SW)+Code(NE)”的命名方式。Code(SW)和Code(NE)分别为方位道路实例的MBR的SW顶点和NE顶点的基于ELLGs的网格编码,选择它们的标准是能够区分对应于不同内部方位信息的方位道路实例。这种命名方式对方位道路实例进行了唯一标识,并且在文本上保留与现实中存在的道路的关联的同时控制了文本长度。获取Code(SW)和Code(NE)的方式如下(如图3):
①获取道路名中不包含方位信息的道路的所有方位道路的MBR;
②初始化k=0,0≤k≤Lmax;
③按照公式(1)计算各MBR的SW顶点和NE顶点在尺度k的网格编码;
④如果存在两个MBR的SW顶点的网格编码相同且NE顶点的网格编码相同,则令k=k+1,并返回③;否则,为各MBR选择尺度为k的SW顶点的网格编码和NE顶点的网格编码;
例如,对于道路“Beechmont Drive”,其方位道路包括对应于S方向的“BeechmontDrive 15/19335/23834 15/19336/23835”、对应于N方向的“Beechmont Drive 15/19337/23835 15/19337/23836”。
步骤a2,利用道路实例,根据数据集标记策略来制作标记数据集和候选匹配实例;
在步骤a2中,提出了一种数据集标记策略,该策略如下:
(1)根据道路实例来模拟不包含方位信息的参考道路描述和包含方位信息的非标准的参考道路描述:
①移除道路名中的方位信息来获取不包含方位信息的描述;
例如,“Hiawatha Boulevard East”转化为“Hiawatha Boulevard”;
②为不包含方位信息的道路名补充八种方位信息来获取包含方位信息的非标准描述;
例如,“Hertel Avenue”转化为“North section in Hertel Avenue”;
(2)为每一个参考道路描述获取相同数量的匹配的道路实例和不匹配的道路实例:
①如果参考道路描述不包含方位信息,则匹配的道路实例是转化为该描述之前的道路名,不匹配的道路实例从除匹配的道路实例之外的道路实例中随机选择。
例如,对于参考道路描述“Hiawatha Boulevard”,匹配的道路实例为“HiawathaBoulevard East”,不匹配的道路实例为“Strackville Road”;
②如果参考道路描述为包含方位信息的非标准描述,则按照如下的优先级获取匹配的道路实例:
i.包含了相同或近义的方位信息的道路名;
ii.基于道路本体模型建模的方位道路实例;
iii.不包含方位信息的道路名;
不匹配的道路实例从除匹配的道路实例之外的道路实例中随机选择,而且优先从相反的方位信息的道路实例中随机选择。近义或反义的方位信息如表1所示。
表1.方位信息的近义或反义
例如,对于参考道路描述“North section in Hertel Avenue”,匹配的道路实例为“Hertel Avenue 12/2300/3025 12/2302/3025”,因为现实中不存在“North HertelAvenue”或“Hertel Avenue North”,不匹配的道路实例为“Hertel Avenue 12/2300/3025”,其对应的道路内部的方位信息是“South”;
并且,标记数据集中的道路实例即为候选匹配实例(数量为size);
步骤a3,将标记数据集从文本转化为向量表达,并获得候选匹配实例的向量表达;
在步骤a3中,按照如下步骤将标记数据集从文本转化为向量表达:
①将道路数据集中的道路名、标记数据集中的参考道路描述和道路实例构成语料库,基于词向量模型训练语料库中的单词的n维词向量;
②构造包含语料库中所有单词的词向量字典;
③通过字符串分割将标记数据集中的参考道路描述和道路实例均表达为词组,并根据最大的词组长度maxlength,将所有参考道路描述的词组长度对齐为maxlength,将所有道路实例的词组长度对齐为maxlength-1;
④通过查找词向量字典,将标记数据集中的参考道路描述的词组转化为maxlength*n维向量矩阵,将道路实例的词组转化为(maxlength-1)*n维向量矩阵;
并且,通过连接标记数据集中的size个道路实例的(maxlength-1)*n维向量矩阵可获得候选匹配实例的size*(maxlength-1)*n维向量矩阵。
步骤a4,利用标记数据集,根据基于深度学习的道路语义匹配模型训练道路数据集上的道路语义匹配模型;
在步骤a4中,提出了一种基于深度学习的道路语义匹配模型,该模型对ESIM模型进行了改进和拓展,其结构如下(如图4):
①输入层:该层采用三个向量作为输入,a为参考道路描述(长度为la)的向量,b为道路实例(长度为lb)的向量,c为新引入的方位向量;
②输入编码层:该层首先连接b和c获得语义增强的向量b’;然后将a和b’分别送入双向GRU模型以加强表达单词与其上下文的关系,并生成新的向量和/>(公式(2));
③局部推理层:该层首先获得和/>的注意力权重矩阵eij(公式(3)),然后通过注意力机制从/>和/>中捕获相关单词且生成/>和/>(公式(4)),接着通过连接/> 二者的差和点积,来增强局部推理信息,标记为ma,类似地可获得mb’(公式(5));
④推理组合层:该层首先使用双向GRU模型来提取ma和mb’的更高层次表达,标记为va和vb’;然后分别对va和vb’计算所有隐藏状态的最大池va,max和vb’,max,获取最终隐藏状态va,la和vb’,lb+1,并连接了最终隐藏状态,最大池,二者的差和点积(公式(6)),来获得增强的全局推理结果,标记为Ema和Emb’;
⑤预测层:该层利用包含三个全连接层的多层感知器输出预测结果(预测值的范围为0-1),三个全连接层分别采用relu,tanh和sigmoid作为激活函数。
并且,训练道路数据集上的道路语义匹配模型时(如图5),将标记数据集划分为训练集、验证集和测试集,训练集、验证集和测试集中各自的标记为匹配的数据对和标记为不匹配的数据对的数量相同。
在训练集上,将所有数据对的参考道路描述的向量、道路实例的向量和相应的方位向量作为道路语义匹配模型的输入,对不同的超参数集(学习率、隐藏节点数、批处理大小)进行多周期的训练。其中,标记为匹配且道路实例是方位道路的数据对的方位向量为参考道路描述中方位信息的词向量,其余数据对的方向向量为零向量;
在验证集上,首先将所有数据对的参考道路描述的向量、道路实例的向量和相应的方位向量作为各超参数集的各周期的道路语义匹配模型的输入来预测所有数据对。其中,标记为匹配且道路实例是方位道路的数据对的方位向量为参考道路描述中方位信息的词向量,其余数据对的方向向量为零向量。根据预测的准确性来确定各超参数集的最佳训练周期,预测的准确性通过F1-score(公式(7))来评估,precision反映了预测为匹配且标记为匹配的数据对占预测为匹配的数据对的比例,recall反映了预测为匹配且标记为匹配的数据对占标记为匹配的数据对的比例;然后基于各超参数集的最佳训练周期的道路语义匹配模型,对每一个参考道路描述,获取其与所有候选匹配实例的相似度并根据最高相似度获取其匹配实例,通过所有匹配实例的准确性来确定最优超参数集。匹配实例的准确性通过F1-score(公式(7))来评估,precision反映了获取的匹配实例中的被标记为匹配的道路实例的比例,recall反映了标记为匹配的道路实例中被获取为匹配实例的比例;
在测试集上,基于最优超参数集的最佳训练周期的道路语义匹配模型,对每一个参考道路描述获取其与所有候选匹配实例的相似度并根据最高相似度获取其匹配实例,并评估所有匹配实例的准确性。匹配实例的准确性通过F1-score(公式(7))来评估,precision反映了获取的匹配实例中的被标记为匹配的道路实例的比例,recall反映了标记为匹配的道路实例中被获取为匹配实例的比例;
步骤2,基于道路数据集构建道路语义网络。
该步骤可以细分为四个子步骤:
步骤b1,将步骤1中的道路实例作为语义网络中的节点,将道路实例间的语义关系作为语义网络中的语义关系;
例如,<http://www.roadnet.org/road/id/#11914>和<http://www.roadnet.org/road/name/#New_Kingston_Road>分别是语义网络中的道路节点和道路名节点,<http://www.roadnet.org/property/hasname>是连接二者的语义关系;
步骤b2,利用ELLGs构造多尺度的聚类关系NE、NW、SE和SW来简化道路之间的NE,NW,SE,SW,N,S,E,W关系,并将聚类关系作为语义网络中的语义关系;
在步骤b2中,提出了一种基于ELLGs的多尺度简化算法来构造聚类关系NE、NW、SE和SW(如图6),该方法描述如下(如图7):
①初始化k=0;
②计算所有道路实例的MBR的顶点所在的尺度为k的网格集合GridSetk,0≤k≤Lmax,Lmax为ELLGs的最大尺度;
③建立网格集合GridSetk中的网格gridi(k,columni,rowi)和其关联的道路语义的映射Mapk(gridi,roads),columni为列编码,rowi为行编码,roads为道路语义;
④计算GridSetk的编码范围,得到columnA≤columni≤columnB,rowA≤rowi≤rowB,columnA和columnB分别为列编码的最小值和最大值,rowA和rowB分别为行编码的最小值和最大值;
⑤如果columnA<columnB且rowA≤rowi≤rowB,则执行⑥到⑧;否则,令k=k+1,并返回②;
⑥通过GridSetk和Mapk(gridi,roads)来构造GridSetk-1中同一行网格内的NE关系和NW关系(图6(a)),即,当rowA≤rowi<rowB时,令rowi=rowA,如果满足则构造code2(k,rowi+1,column2)相对于code1(k,rowi,column1)的NE关系(图6(b1)中C相对于A)和code2(k,rowi+1,column2)相对于code1(k,rowi,column1)的NW关系(图6(b2)中C相对于A),然后令rowi=rowi+1,迭代执行上述NE关系和NW关系的构造过程;否则令rowi=rowi+1,迭代执行上述NE关系和NW关系的构造过程。
构造code2(k,rowi+1,column2)相对于code1(k,rowi,column1)的NE关系的过程如下:
1)初始化rowi的道路语义集合column1=columnB-1;
2)获取Mapk中code1关联的道路语义roads1,co1umnA≤columnl<columnB;
3)如果roads1包含于roadseti,则令column1=column1-1,并返回2);否则,将roads1加入roadseti,并初始化rowi+1的道路语义集合column2=column1+1;
4)获取Mapk中code2关联的道路roads2,columnA<column2≤columnB;
5)如果roads2包含于roadseti+1,则令column2=column2+1,并返回4);否则,将roads2加入roadseti+1,并将code2相对于code1的NE关系存储到DirectionSetk,然后令column2=column2+1,并返回4);
6)直到column2=columnB,令column1=column1-1,并返回2);
构造code2(k,rowi+1,column2)相对于code1(k,rowi,column1)的NW关系的过程如下:
1)初始化column1=columnA+1;
2)获取Mapk中code1关联的道路语义roads1,columnA<column1≤columnB;
3)如果roads1包含于roadseti,则令column1=column1+1,并返回2);否则,将roads1加入roadseti,并初始化column2=column1-1;
4)获取Mapk中code2关联的道路roads2,columnA≤column2<columnB;
5)如果roads2包含于roadseti+1,则令column2=column2-1,并返回4);否则,将roads2加入roadseti+1,并将code2相对于code1的NW关系存储到DirectionSetk,然后令column2=column2-1,并返回4);
6)直到column2=columnA,令column1=column1+1,并返回2);
⑦通过GridSetk和Mapk(gridi,roads)来构造GridSetk-1中同一列网格内的NE关系和NW关系(图6(a)),即,当columnA≤columni<columnB时,令columni=columnA,如果满足则构造code2(k,columni+1,row2)相对于code1(k,columni,row1)的NE关系(图6(b3)中C相对于A)和code1(k,columni,row1)相对于code2(k,columni+1,row2)的NW关系(图6(b4)中A相对于C),然后令columni=columni+1,迭代执行上述NE关系和NW关系的构造过程;否则,令columni=columni+1,迭代执行上述NE关系和NW关系的构造过程。
构造code2(k,columni+1,row2)相对于code1(k,columni,row1)的NE关系的过程如下:
1)初始化columni的道路语义集合row1=rowB-1;
2)获取Mapk中code1关联的道路语义roads1,rowA≤row1<rowB;
3)如果roads1包含于roadseti,则令row1=row1-1,并返回2);否则,将roads1加入roadseti,并初始化columni+1的道路语义集合row2=row1+1;
4)获取Mapk中code2关联的道路roads2,rowA<ow2≤rowB;
5)如果roads2包含于roadseti+1,则令row2=row2+1,并返回4);否则,将roads2加入roadseti+1,并将code2相对于code1的NE关系存储到DirectionSetk,然后令row2=row2+1,并返回4);
6)直到row2=rowB,令row1=row1-1,并返回2);
构造code1(k,columni,row1)相对于code2(k,columni+1,row2)的NW关系的过程如下:
1)初始化row2=rowB-1;
2)获取Mapk中code2关联的道路roads2,rowA≤row2<rowB;
3)如果roads2包含于roadseti+1,则令row2=row2-1,并返回2);否则,将roads2加入roadseti+1,并初始化row1=row2+1;
4)获取Mapk中code1关联的道路语义roads1,rowA<row1≤rowB;
5)如果roads1包含于roadseti,则令row1=row1+1,并返回4);否则,将roads1加入roadseti,并将code1相对于code2的NW关系存储到DirectionSetk,然后令row1=row1+1,并返回4);
6)直到row1=rowB,令row2=row2-1,并返回2);
⑧令k=k+1,并返回②。
DirectionSetk为尺度为k的简化的定性方位关系集合;
步骤b3,定义语义推理规则以建立道路实例和其MBR的NE,NW,SE,SW顶点所在的多尺度网格的直接关联;
在步骤b3中,定义了表2中4条语义推理规则来分别建立道路实例和其MBR的NE,NW,SE,SW顶点所在的多尺度网格的直接关联,语义推理规则只需构建一次,可以重复使用:
表2.语义推理规则
例如,?road rd:ne_code?c表示road的MBR的NE顶点的网格为c;
步骤b4,建立道路实例之间的NE,NW,SE,SW,N,S,E,W关系和语义网络中的语义关系的映射;
在步骤b4中,建立了如表3中的道路实例之间的定性方位关系和语义网络中的语义关系的映射,该映射关系只需构建一次,可以重复使用:
表3.道路实例之间的定性方位关系和语义网络中的语义关系的映射
以roadB相对于roadA的方位关系是NE为例,?roadA rd:ne_code?codeA表示roadA的MBR的NE顶点的网格为codeA,?codeB rd:NE?codeA表示codeB相对于codeA的方位关系为NE,rd:NE是网格之间的定性方位关系;
步骤3,使用Stanford CoreNLP,将泛在道路描述解析为参考道路描述和相对于参考道路的定性方位关系;
步骤4,根据步骤1中的道路数据集上的道路语义匹配模型,将参考道路描述匹配到相似度最高的候选匹配实例。
该步骤可以细分为两个子步骤:
步骤c1,将参考道路描述从文本转化为向量表达;
在步骤c1中,按照如下步骤将参考道路描述转化为向量格式:
①通过字符串分割将参考道路描述表达为词组;根据最大的词组长度maxlength,将参考道路描述的词组长度对齐为maxlength;
②通过查找词向量字典,将参考道路描述的词组转化为maxlength*n维向量矩阵;
步骤c2,根据道路语义匹配模型,获取参考道路描述和所有候选匹配实例的相似度,并选择相似度最高的候选匹配实例作为匹配实例;
并且,在步骤a4和c2中,按照如下方式获取参考道路描述的匹配实例:
①根据标记数据集中标记为匹配的数据对,建立方位道路和其对应的道路内部方位信息的映射关系,其对应的道路内部方位信息即为参考道路描述中的定性方位信息,该映射关系只需建立一次,可重复使用;
例如,匹配数据对中的参考道路描述为“East section in Beechmont Drive”,道路实例为“Beechmont Drive 15/19336/23835 15/19337/23836”,则可知方位道路“Beechmont Drive 15/19336/23835 15/19337/23836”对应的道路内部方位信息为“East”;
②获取参考道路描述和单个候选匹配实例组成的数据对的1*n维方位向量,并连接所有的方位向量以构建size*1*n维方位向量矩阵。获取数据对的方位向量的方法如下:
对于同时满足以下条件的数据对,方位向量为参考道路描述中的方位信息的词向量:
1)参考道路描述包含方位信息;
2)候选匹配实例是方位道路;
3)方位道路中的道路名和参考道路描述中的道路名相同;
4)方位道路对应的道路内部方位信息中包含参考道路描述中的方位信息;
例如,数据对中的参考道路描述为“East section in Beechmont Drive”,候选匹配实例为“Beechmont Drive 15/19336/23835 15/19337/23836”,并且“Beechmont Drive15/19336/23835 15/19337/23836”对应的道路内部方位信息为“East”,则方位向量为“East”的词向量;
对于其他数据对,方位向量为零向量;
例如,数据对中的参考道路描述为“East section in Beechmont Drive”,候选匹配实例为“Girdle Road 14/9229/12085 14/9229/12089”,因不满足条件3),则方位向量为零向量;
③对参考道路描述的maxlength*n维向量矩阵连接size次,将其扩充成size*maxlength*n维向量矩阵;
④将参考道路描述的size*maxlength*n维向量矩阵、候选匹配实例的size*(maxlength-1)*n维向量矩阵、size*1*n维方位向量矩阵作为道路语义匹配模型的输入,获得相似度预测值的size*1维向量矩阵;
⑤选择相似度预测值的size*1维向量矩阵中的最大值对应的候选匹配实例作为匹配实例。
步骤5,根据道路实例之间的定性方位关系和语义网络中的语义关系的映射,利用步骤3中的定性方位关系和步骤4中的匹配实例构造匹配实例的定性方位推理的语义查询语句,并对步骤2中的道路语义网络进行语义查询来实现目标道路推理。
具体实施时,可采用软件方式实现流程的自动运行。运行流程的装置也应当在本发明的保护范围内。
为便于了解本发明的技术效果,提供实施所提供方法流程的实用实例如下,参见图8:
步骤1,基于美国纽约州的包含9391条道路(24045个路段)的道路数据集来训练基于深度学习的道路语义匹配模型。该步骤可以细分为四个子步骤:
在步骤a1,根据提出的道路本体模型,对道路数据集中的每一条道路数据进行实例化,包括:构造道路名、路段、路口实例,对道路名中不包含方位信息的道路构造方位道路实例;构造道路、路段、方位道路的空间范围实例,构造空间范围的顶点实例,构造路口、顶点的多尺度网格编码实例。选择27作为ELLG的最大尺度,多尺度网格编码基于公式(1)计算;
在步骤a2,根据道路数据集的实例化结果,按照数据集标记策略制作标记数据集,整个标记数据集包含144000个数据对,其中标记为匹配的数据对和标记为不匹配的数据对均为72000个,并且从标记数据中获得了18610个候选匹配实例;
在步骤a3,首先基于Word2Vec模型对语料库进行训练,获得单词的256维的词向量;然后构造单词的词向量字典;接着将标记数据集中的参考道路描述和道路实例均表达为词组,获得词组的最大长度maxlength为12,并将所有参考道路描述的词组长度对齐为12,将所有道路实例的词组长度对齐为11;最后通过查找词向量字典,将标记数据集中的参考道路描述的词组转化为12*256维向量矩阵,将道路实例的词组转化为11*256维向量矩阵,并获得了候选匹配实例的18610*11*256维向量矩阵;
在步骤a4,首先基于Keras 2.3.1和Tensorflow 2.1构建提出的道路语义匹配模型;然后将标记数据集按照70%、10%、20%的比例划分为训练集(包含50400个标记为匹配的数据对和50400个标记为不匹配的数据对)、验证集(包含7200个标记为匹配的数据对和7200个标记为不匹配的数据对)和测试集(包含14400个标记为匹配的数据对和14400个标记为不匹配的数据对):在训练集上,对不同超参数集(隐藏节点数为50、100、150,学习率为0.001、0.0001、0.00001,批处理大小为32,64,96)分别进行30个周期的训练;在验证集上,首先根据各超参数集的各周期的道路语义匹配模型对所有数据对的预测值的F1-score来确定各超参数集的最佳训练周期,然后基于各超参数集的最佳训练周期的道路语义匹配模型,对每一个参考道路描述,从18610个候选匹配实例中获取其匹配实例,并计算所有匹配实例的F1-score,选择F1-score最高的超参数集为最优超参数集(隐藏节点数为100,学习率为0.0001,批处理大小为64);在测试集上,基于最优超参数集的最佳训练周期(28)的道路语义匹配模型,对每一个参考道路描述,从18610个候选匹配实例中获取其匹配实例,并计算所有匹配实例的precision为0.931,recall为0.918,F1-score为0.924;
具体实施时,可以根据实际情况自行确定道路数据集、ELLGs的最大尺度、标记数据集的数据量、词向量的训练模型和维数、标记数据集的划分比例、道路语义匹配模型的训练周期和超参数集。
步骤2,基于美国纽约州的道路数据集构建道路语义网络,并存储在Oracle12c数据库中。该步骤可以细分为四个子步骤:
在步骤b1,将道路数据集的实例化结果作为道路语义网络中的节点,并定义实例间的语义关系作为道路语义网络中的语义关系;
在步骤b2,考虑到满足相对于道路实例的定性方位关系的对象可能是整条道路,也可能是整条道路的一部分,因此对路段相对于候选匹配实例的定性方位关系进行简化表达,从而使得通过定性方位推理获取到的目标道路能够精确到路段级别。因此,实施基于ELLGs的定多尺度简化算法时,从k=0到k=27,对于每一个k,首先计算18610个候选匹配实例的MBR的顶点和24045个路段的MBR的顶点的尺度为k的网格集合GridSetk,并建立GridSetk中的网格和其关联的道路语义的映射Mapk;然后通过GridSetk和Mapk来构造GridSetk-1中同一行网格内的NE和NW关系以及GridSetk-1中同一列网格内的NE和NW关系,并加入尺度为k的定性方位关系集合DirectionSetk。简化后的多尺度定性方位集合DirectionSet中包含5,742,031个定性方位关系,仅为简化前的定性方位关系数量(447,477,450)的1.28%;最后,将DirectionSet中的定性方位关系表达为道路语义网络中的语义关系;
在步骤b3,构建包含4条语义推理规则的规则库RB,构建语义推理规则road_ne_rule的语句形如:
INSERT INTO mdsys.RDFR_RB VALUES('road_ne_rule','(?x rd:hasextent?e1)(?e1rd:hasne?v1)(?v1 rdfs:subClassOf?p1)(?c1 rd:hasref?p1)(?c1 rd:hascode?g1)',NULL,'(?xrd:ne_code?g1)',NULL);
在步骤b4,建立道路实例之间的NW,NE,SE,SW,N,S,E,W关系和语义网络中的语义关系的映射。
步骤3,使用Stanford CoreNLP,将泛在道路描述“Northeast of North sectionin Cobbetts Lane”解析为参考道路描述“North section in Cobbetts Lane”和相对于参考道路描述的定性方位关系“Northeast”;
具体实施时,可以根据实际情况自行确定泛在道路描述中的参考道路描述和相对于参考道路描述的定性方位关系。
步骤4,根据道路数据集上的道路语义匹配模型,将参考道路描述“North sectionin Cobbetts Lane”匹配到相似度最高的候选匹配实例。该步骤可以细分为两个子步骤:
在步骤c1中,首先通过字符串分割将参考道路描述“North section in CobbettsLane”表达为词组[North,section,in,Cobbetts,Lane],并将词组长度对齐为12,即[null,null,null,null,null,null,null,North,section,in,Cobbetts,Lane];然后通过查找词向量字典,将参考道路描述的词组转化为12*256维向量矩阵,单词为null的词向量取256维的零向量;
在步骤c2中,首先建立方位道路和其对应的道路内部方位信息的映射关系;然后分别获取参考道路描述“North section in Cobbetts Lane”和每个候选匹配实例组成的数据对的1*256维方位向量从而构建18610*1*256维方位向量矩阵;接着将参考道路描述的12*256维向量矩阵连接18610次,扩充成18610*12*256维向量矩阵;随后将参考道路描述的18610*12*256维向量矩阵、候选道路实例的18610*11*256维向量矩阵、18610*1*256维方位向量矩阵输入步骤a4中的最优超参数集的最佳训练周期的道路语义匹配模型,获得相似度预测值的18610*1维向量矩阵;最后选择相似度预测值的18610*1维向量矩阵中的最大值0.9999对应的候选匹配实例“Cobbetts Lane 11/1224/1491 11/1225/1491”作为匹配实例;
步骤5,根据道路实例之间的NW,NE,SE,SW,N,S,E,W关系和语义网络中的语义关系的映射,构建包含匹配实例“Cobbetts Lane 11/1224/1491 11/1225/1491”和相对于匹配实例的定性方位关系“Northeast”的查询语句,通过Oracle12c数据库支持的PL/SQL技术对步骤2构建的道路语义网络进行语义查询,从而推理得到了20个目标路段,推理效率为256ms。构建的语义查询语句形如:
SELECT distinct segment FROM TABLE(
SEM_MATCH('{rd:Cobbetts_Lane_11/1224/1491_11/1225/1491rd:ne_code?codeA.
?codeB rd:NE?codeA.?segment rd:sw_code?codeB.?road rd:hassegment?segment.}',
SEM_Models('roadnet'),SEM_Rulebases('RB'),SEM_ALIASES(SEM_ALIAS(”,'http://www.roadnet.org/')),null));
具体实施时,可以根据实际情况自行构造语义查询语句。
通过以上具体实施可以看出,提出的道路本体模型描述了道路的组成、语义信息和空间信息及其联系,并对道路名中不包含方位信息的道路进行了内部方位的划分,从而为与道路或其局部位置的匹配以及推理结果精确到路段奠定了基础;提出的基于深度学习的道路语义匹配模型能够适应多样的道路位置描述,例如不包含定性方位信息的描述或包含道路内部的定性方位信息的非标准描述等,并实现匹配到道路或其局部位置;提出的基于ELLGs的多尺度简化算法极大程度地简化了海量的定性方位关系,使得构建定性方位关系的语义网络是可行的并能够基于语义查询来实现高效的定性方位推理。因此,本发明能够有效支持从泛在道路信息定位到空间位置的应用。
Claims (10)
1.一种基于深度学习和定性空间推理的泛在道路信息定位方法,其特征在于,包括以下步骤:
步骤1,基于道路数据集训练基于深度学习的道路语义匹配模型;所述基于深度学习的道路语义匹配模型包括输入层,输入编码层,局部推理层,推理组合层和预测层;
步骤1的具体实现包括如下子步骤;
步骤a1,利用道路数据集,构建道路实例;
步骤a2,利用道路实例,根据数据集标记策略来制作标记数据集和候选匹配实例;
步骤a3,将标记数据集从文本转化为向量表达,并获得候选匹配实例的向量表达;
步骤a4,利用标记数据集,根据基于深度学习的道路语义匹配模型训练道路数据集上的道路语义匹配模型;
步骤2,基于道路数据集构建道路语义网络,具体实现包括如下子步骤;
步骤b1,将步骤1中的道路实例作为语义网络中的节点,将道路实例间的语义关系作为语义网络中的语义关系;
步骤b2,利用等经纬度全球离散格网ELLGs构造多尺度的聚类关系NE、NW、SE和SW来简化道路之间的NE,NW,SE,SW,N,S,E,W关系,并将聚类关系作为语义网络中的语义关系;
步骤b3,定义语义推理规则以建立道路实例和其MBR的NE,NW,SE,SW顶点所在的多尺度网格的直接关联;
步骤b4,建立道路实例之间的NE,NW,SE,SW,N,S,E,W关系和语义网络中的语义关系的映射;
相关术语定义如下:NE东北,NW西北,SE东南,SW西南,S南,N北,E东,W西;
步骤3,将泛在道路描述解析为参考道路描述和相对于参考道路的定性方位关系;
步骤4,根据步骤1中的道路数据集上的道路语义匹配模型,将参考道路描述匹配到相似度最高的候选匹配实例;
步骤5,基于步骤3中的定性方位关系和步骤4中的匹配实例构造语义查询语句,对步骤2中的道路语义网络进行语义查询以推理目标道路。
2.如权利要求1所述的基于深度学习和定性空间推理的泛在道路信息定位方法,其特征在于:步骤a1中通过对道路本体模型中的类进行实例化以构建道路实例;
步骤a1中所述道路本体模型中的所有概念被组织成道路、空间范围和多尺度空间范围三个类及其子类,道路类描述了现实存在的道路的语义信息和层次化的组成部分,包括道路名、路段、路口和方位道路子类;空间范围类描述了由MBR表达的空间范围,包括NE,NW,SE,SW四个顶点子类;多尺度空间范围类描述了由ELLGs的网格编码表达的多尺度空间范围,包括多尺度网格编码子类,并且其扩展了WGS84本体来继承经度和纬度两个数据属性;将道路类与空间范围类、多尺度空间范围类关联以表达道路和其组成部分的空间信息。
3.如权利要求2所述的基于深度学习和定性空间推理的泛在道路信息定位方法,其特征在于:步骤a1中路段被定义为相邻路口之间的局部道路,方位道路被定义为由对应于内部方位的路段组成的局部道路,并且只对道路名中不包含方位信息的道路划分其方位道路,方位道路的划分依赖于路口,即以路段为基本单元,在W-E方向或S-N方向上为路段分配相对于道路的内方位,划分道路内部方位的方式如下:
①排除两类路口:第一类是控制道路空间范围的路口,第二类是导致路段被截断的路口;
②基于唯一可用的路口,为路段分配W、E方向或S、N方向;或者在多个可用的路口的情况下,基于最靠近三等分线的路口,为路段分配W、C、E方向或S、C、N方向;
③为路段分配复合方向NE,NW,SE,SW;
相关术语定义如下:NE东北,NW西北,SE东南,SW西南,S南,N北,E东,W西,W-E方向东西方向,S-N方向南北方向,C中。
4.如权利要求2所述的基于深度学习和定性空间推理的泛在道路信息定位方法,其特征在于:步骤a1中采用“道路名+Code(SW)+Code(NE)”的方式来命名方位道路,Code(SW)和Code(NE)分别为方位道路的MBR的SW顶点和NE顶点的基于ELLGs的网格编码,选择它们的标准是能够区分对应于不同内部方位信息的方位道路;获取Code(SW)和Code(NE)的方式如下,ELLGs的最大尺度为Lmax:
①获取道路名中不包含方位信息的道路的所有方位道路的MBR;
②初始化k=0,0≤k≤Lmax;
③计算各MBR的SW顶点和NE顶点在尺度k的网格编码;
④如果存在两个MBR的SW顶点的网格编码相同且NE顶点的网格编码相同,则令k=k+1,并返回③;否则,为各MBR选择尺度为k的SW顶点的网格编码和NE顶点的网格编码。
5.如权利要求1所述的基于深度学习和定性空间推理的泛在道路信息定位方法,其特征在于:步骤a2中所述标记策略如下:
(1)根据道路实例来模拟不包含方位信息的参考道路描述和包含方位信息的非标准的参考道路描述:
①移除道路名中的方位信息来获取不包含方位信息的描述;
②为不包含方位信息的道路名补充八种方位信息来获取包含方位信息的非标准描述;
(2)为每一个参考道路描述获取相同数量的匹配的道路实例和不匹配的道路实例:
①如果参考道路描述不包含方位信息,则匹配的道路实例是转化为该描述之前的道路名,不匹配的道路实例从除匹配的道路实例之外的道路实例中随机选择;
②如果参考道路描述为包含方位信息的非标准描述,则按照如下优先级获取匹配的道路实例:
i.包含了相同或近义的方位信息的道路名;
ii.基于道路本体模型建模的方位道路;
iii.不包含方位信息的道路名;
不匹配的道路实例从除匹配的道路实例之外的道路实例中随机选择,而且优先从包含相反的方位信息的道路实例中随机选择。
6.如权利要求2所述的基于深度学习和定性空间推理的泛在道路信息定位方法,其特征在于:步骤a3中将标记数据集从文本转换为向量格式的方式如下,
①将道路数据集中的道路名、标记数据集中的参考道路描述和道路实例构成语料库,基于词向量模型训练语料库中的单词的n维词向量;
②构造包含语料库中所有单词的词向量字典;
③通过字符串分割将标记数据集中的参考道路描述和道路实例均表达为词组,并根据最大的词组长度maxlength,将所有参考道路描述的词组长度对齐为maxlength,将所有道路实例的词组长度对齐为maxlength-1;
④通过查找词向量字典,将标记数据集中的参考道路描述的词组转化为maxlength*n维向量矩阵,将道路实例的词组转化为(maxlength-1)*n维向量矩阵;
并且,通过连接标记数据集中的size个道路实例的(maxlength-1)*n维向量矩阵可获得候选匹配实例的size*(maxlength-1)*n维向量矩阵。
7.如权利要求1所述的基于深度学习和定性空间推理的泛在道路信息定位方法,其特征在于:所述基于深度学习的道路语义匹配模型是对ESIM模型的改进和拓展,其中步骤a4的具体实现方式如下,
①输入层:该层采用三个向量表示作为输入,a为参考道路描述的向量矩阵,b为道路实例的向量矩阵,c为新引入的方位向量;
②输入编码层:该层首先连接b和c以获得语义增强的向量矩阵b’;然后将a和b’分别送入双向GRU模型以生成新的向量矩阵和/>
③局部推理层:该层首先获得和/>的注意力权重矩阵eij,然后通过注意力机制从/>和中捕获相关单词且生成/>和/>接着通过连接/>二者的差和点积,来增强局部推理信息,标记为ma,类似地获得mb’;
④推理组合层:该层首先使用双向GRU模型来提取ma和mb’的更高层次表达,标记为va和vb’;然后分别对va和vb’计算所有隐藏状态的最大池,获取最终隐藏状态;并连接了最终隐藏状态,最大池,二者的差和点积,来获得增强的全局推理结果;
⑤预测层:该层利用包含三个全连接层的多层感知器输出待比较对的预测结果。
8.如权利要求1所述基于深度学习和定性空间推理的泛在道路信息定位方法,其特征在于:步骤b2的具体实现方式如下,
①初始化k=0;
②计算所有道路实例的MBR的顶点所在的尺度为k的网格集合GridSetk,0≤k≤Lmax,Lmax,Lmax为ELLGs的最大尺度;
③建立网格集合GridSetk中的网格gridi(k,columni,rowi)和其关联的道路语义的映射Mapk(gridi,roads),columni为列编码,rowi为行编码,roads为道路语义;
④计算GridSetk的编码范围,得到columnA≤columni≤columnB,rowA≤rowi≤rowB,columnA和columnB分别为列编码的最小值和最大值,rowA和rowB分别为行编码的最小值和最大值;
⑤如果columnA<columnB且rowA<rowB,则执行⑥到⑧;否则,令k=k+1,并返回②;
⑥通过GridSetk和Mapk(gridi,roads)来构造GridSetk-1中同一行网格内的NE关系和NW关系,即,当rowA≤rowi<rowB时,令rowi=rowA,如果满足则构造code2(k,rowi+1,column2)相对于code1(k,rowi,column1)的NE关系和code2(k,rowi+1,column2)相对于code1(k,rowi,column1)的NW关系,然后令rowi=rowi+1,迭代执行上述NE关系和NW关系的构造过程;否则令rowi=rowi+1,迭代执行上述NE关系和NW关系的构造过程;
⑦通过GridSetk和Mapk(gridi,roads)来构造GridSetk-1中同一列网格内的NE关系和NW关系,即,当columnA≤columni<columnB时,令columni=columnA,如果满足 则构造code2(k,columni+1,row2)相对于code1(k,columni,row1)的NE关系和code1(k,columni,row1)相对于code2(k,columni+1,row2)的NW关系,然后令columni=columni+1,迭代执行上述NE关系和NW关系的构造过程;否则,令columni=columni+1,迭代执行上述NE关系和NW关系的构造过程;
⑧令k=k+1,并返回②;
步骤b3,定义语义推理规则以建立道路实例和其MBR的NE,NW,SE,SW顶点所在的多尺度网格的直接关联;
步骤b4,建立道路实例之间的NE,NW,SE,SW,N,S,E,W关系和语义网络中的语义关系的映射。
9.如权利要求1所述的基于深度学习和定性空间推理的泛在道路信息定位方法,其特征在于:步骤4的具体实现包括如下子步骤,
步骤c1,将参考道路描述从文本转化为向量表达;
在步骤c1中,按照如下步骤将参考道路描述转化为向量格式:
(1)通过字符串分割将参考道路描述表达为词组;根据最大的词组长度maxlength,将参考道路描述的词组长度对齐为maxlength;
(2)通过查找词向量字典,将参考道路描述的词组转化为maxlength*n维向量矩阵,n为词向量的维数;
步骤c2,根据道路语义匹配模型,获取参考道路描述和所有候选匹配实例的相似度,并选择相似度最高的候选匹配实例作为匹配实例。
10.如权利要求9所述的基于深度学习和定性空间推理的泛在道路信息定位方法,其特征在于:步骤c2中获取参考道路描述的匹配实例的方式如下,
①建立方位道路和其对应的道路内部的方位信息的映射关系;
②获取由参考道路描述和单个候选匹配实例组成的数据对的方位向量:如果参考道路描述包含方位信息,候选匹配实例是方位道路,并且方位道路中的道路名和参考道路描述中的道路名相同,方位道路对应的道路内部的方位信息中包含参考道路描述中的方位信息,则方位向量为参考道路描述中的方位信息的词向量;否则,方位向量为零向量;连接所有的方位向量构建方位向量矩阵;
③连接参考道路描述的向量,将其扩充成与候选匹配实例的向量矩阵相同大小的向量矩阵;
④将参考道路描述的向量矩阵、候选匹配实例的向量矩阵、方位向量矩阵作为道路语义匹配模型的输入,获得相似度预测值的向量矩阵;
⑤选择相似度预测值的向量矩阵中的最大值对应的候选匹配实例作为匹配实例。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011055015.XA CN112148894B (zh) | 2020-09-30 | 2020-09-30 | 一种基于深度学习和定性空间推理的泛在道路信息定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011055015.XA CN112148894B (zh) | 2020-09-30 | 2020-09-30 | 一种基于深度学习和定性空间推理的泛在道路信息定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112148894A CN112148894A (zh) | 2020-12-29 |
CN112148894B true CN112148894B (zh) | 2024-01-26 |
Family
ID=73895068
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011055015.XA Active CN112148894B (zh) | 2020-09-30 | 2020-09-30 | 一种基于深度学习和定性空间推理的泛在道路信息定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112148894B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114461943B (zh) * | 2022-04-14 | 2022-08-26 | 中国测绘科学研究院 | 基于深度学习的多源poi语义匹配方法、装置及其存储介质 |
CN115905445B (zh) * | 2022-12-16 | 2023-08-25 | 河南大学 | 一种基于Seq2Seq模型的道路要素化简方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109800736A (zh) * | 2019-02-01 | 2019-05-24 | 东北大学 | 一种基于遥感影像和深度学习的道路提取方法 |
CN110287932A (zh) * | 2019-07-02 | 2019-09-27 | 中国科学院遥感与数字地球研究所 | 基于深度学习图像语义分割的道路阻断信息提取 |
CN110716999A (zh) * | 2019-09-05 | 2020-01-21 | 武汉大学 | 基于包含定性方位和定量距离的位置描述的poi定位方法 |
CN110781680A (zh) * | 2019-10-17 | 2020-02-11 | 江南大学 | 基于孪生网络和多头注意力机制的语义相似度匹配方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107783960B (zh) * | 2017-10-23 | 2021-07-23 | 百度在线网络技术(北京)有限公司 | 用于抽取信息的方法、装置和设备 |
-
2020
- 2020-09-30 CN CN202011055015.XA patent/CN112148894B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109800736A (zh) * | 2019-02-01 | 2019-05-24 | 东北大学 | 一种基于遥感影像和深度学习的道路提取方法 |
CN110287932A (zh) * | 2019-07-02 | 2019-09-27 | 中国科学院遥感与数字地球研究所 | 基于深度学习图像语义分割的道路阻断信息提取 |
CN110716999A (zh) * | 2019-09-05 | 2020-01-21 | 武汉大学 | 基于包含定性方位和定量距离的位置描述的poi定位方法 |
CN110781680A (zh) * | 2019-10-17 | 2020-02-11 | 江南大学 | 基于孪生网络和多头注意力机制的语义相似度匹配方法 |
Non-Patent Citations (1)
Title |
---|
融合实体上下文特征的深度文本语义匹配模型;徐文峰;杨艳;张春凤;;武汉大学学报(理学版)(第05期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112148894A (zh) | 2020-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111090461B (zh) | 一种基于机器翻译模型的代码注释生成方法 | |
CN110990590A (zh) | 一种基于强化学习和迁移学习的动态金融知识图谱构建方法 | |
Duckham et al. | Foundations of geographic information science | |
CN111782769B (zh) | 基于关系预测的知识图谱智能问答方法 | |
CN112148894B (zh) | 一种基于深度学习和定性空间推理的泛在道路信息定位方法 | |
CN111898636B (zh) | 一种数据处理方法及装置 | |
Wang et al. | Preference-based spatial co-location pattern mining | |
CN113240046B (zh) | 一种基于知识的视觉问答任务下的多模态信息融合方法 | |
CN111178051A (zh) | 建筑信息模型自适应的中文分词方法及装置 | |
CN104462063A (zh) | 基于语义位置模型的位置信息结构化提取方法及*** | |
CN116127084A (zh) | 基于知识图谱的微电网调度策略智能检索***及方法 | |
CN105117494A (zh) | 模糊语境中的空间实体映射方法 | |
CN111159427B (zh) | 一种基于众包的知识图谱构建方法及*** | |
CN103810388A (zh) | 基于面向映射的分块技术的大规模本体映射方法 | |
CN116578724B (zh) | 知识库知识结构构建方法及装置、存储介质和终端 | |
CN114510576A (zh) | 一种基于BERT和BiGRU融合注意力机制的实体关系抽取方法 | |
CN115983385B (zh) | 空间环境实体构建方法及装置 | |
Couclelis | Geocomputation and space | |
CN113468881B (zh) | 一种地址标准化方法及装置 | |
CN116226404A (zh) | 一种针对肠-脑轴的知识图谱构建方法及知识图谱*** | |
CN115658919A (zh) | 一种文化信息数字化存储方法 | |
CN115470363A (zh) | 基于Unity的三维地图语义注释方法 | |
CN114970547A (zh) | 多层级多类型的规划内容差异识别与冲突消除方法 | |
CN114399048A (zh) | 基于图卷积神经网络与类型嵌入的教育领域联合知识点预测方法及*** | |
Krótkiewicz et al. | Introduction to semantic knowledge base: Multilanguage support of linguistic module |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |