CN114416892A - 一种基于自训练地址切分模型的全国地址归一化方法 - Google Patents

一种基于自训练地址切分模型的全国地址归一化方法 Download PDF

Info

Publication number
CN114416892A
CN114416892A CN202111413815.9A CN202111413815A CN114416892A CN 114416892 A CN114416892 A CN 114416892A CN 202111413815 A CN202111413815 A CN 202111413815A CN 114416892 A CN114416892 A CN 114416892A
Authority
CN
China
Prior art keywords
address
data
standard
training
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111413815.9A
Other languages
English (en)
Inventor
王栋平
蒋言
薛璐璐
张晓燕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Fenghuo Tiandi Communication Technology Co ltd
Original Assignee
Nanjing Fenghuo Tiandi Communication Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Fenghuo Tiandi Communication Technology Co ltd filed Critical Nanjing Fenghuo Tiandi Communication Technology Co ltd
Priority to CN202111413815.9A priority Critical patent/CN114416892A/zh
Publication of CN114416892A publication Critical patent/CN114416892A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Remote Sensing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于自训练地址切分模型的全国地址归一化方法,涉及全国地址归一化领域,具体如下:首先采集互联网和相关部门的地址数据;然后对采集的互联网和相关部门的地址数据进行预处理,其中,预处理具体包含地址数据特征分析、自训练模型切词、地址融合和地址存储四部分;其次利用地址融合好的地址构建标准地址库;最后基于构建的标准地址库,提供地址归一化接口,实现地址规范、地址补全和地址纠偏。本发明目的是对多源的地址数据制定统一的标准,构建标准地址库,提供地址规范、补全和纠偏的服务,实现多源地址数据的归一化。

Description

一种基于自训练地址切分模型的全国地址归一化方法
技术领域
本发明涉及全国地址归一化领域,尤其涉及一种基于自训练地址切分模型的全国地址归一化方法。
背景技术
随着我国数字城市和智慧城市的开展,相关部门采集并积累了大量的地址数据,大量行业和个人信息需要通过地址匹配服务实现空间表达,从而实现与地理数据的融合和大数据分析应用。但是,不同部门的地址数据组织结构多样,缺乏统一的标准,不利于地址的共享服务。因此,地址数据归一化已成为地址广泛应用的迫切需要,也是标准地址库建设急需解决的问题。传统的地址归一化方法多是利用中文地址分词与词典结合最大正向匹配算法或最大逆向匹配算法进行地址要素分词,这种地址要素分词方法在一定程度上会产生语义歧义问题,如“南京大学”中的“南京”会被切成地址要素市(city)。另外,传统的地址归一化方法没有对地址进行融合,对于表述不一的地址无法整合成一条标准地址,如“江苏省南京市建邺区沙洲街道云龙山路88号”、“江苏省南京市建邺区烽火科技”、“江苏省南京市建邺区沙洲街道烽火科技大厦”、“云龙山路88号烽火科技”无法整合成一条标准地址“江苏省南京市建邺区沙洲街道云龙山路88号烽火科技大厦”。
发明内容
针对背景技术中的问题,本发明提出一种基于自训练地址切分模型的全国地址归一化方法来对该问题做到有效的解决,该方法对多源的地址数据制定统一的标准,构建标准地址库,提供地址规范、补全和纠偏的服务,实现多源地址数据的归一化。
本发明为解决上述技术问题采用以下技术方案:
一种基于自训练地址切分模型的全国地址归一化方法,具体包含如下步骤;
步骤1,采集互联网和相关部门的地址数据;
步骤2,对步骤1采集的互联网和相关部门的地址数据进行预处理,预处理具体包含地址数据特征分析、自训练模型切词、地址融合和地址存储四部分;
步骤3,利用步骤2中融合好的地址构建标准地址库;
步骤4,基于步骤3构建的标准地址库,提供地址归一化接口,实现地址规范、地址补全和地址纠偏。
作为本发明一种基于自训练地址切分模型的全国地址归一化方法的进一步优选方案,在步骤2中,地址数据特征分析具体如下
对采集到的多源地址数据,进行特征分析,将地址数据定义为不同的地址要素;其中,地址要素包含省、市、区、街道、村、路、路号、标志性建筑物、与标志性建筑物并列的建筑物、兴趣点、户室和与地址无关的信息;
作为本发明一种基于自训练地址切分模型的全国地址归一化方法的进一步优选方案,在步骤2中,自训练模型切词具体如下;
步骤2.1,制定标注规范,规范内容为:按照步骤4中定义的地址要素,对地址打标;
步骤2.2,根据标注规范,将人工标注地址作为原始模型的原始训练数据,人工标注是指将原始地址数据人工进行12个地址要素的分词和标记;
步骤2.3,统计出人工标注数据的地址要素级别序列,根据统计出的地址要素级别序列,然后按不同地址要素级别序列的比列,成倍的构造标注好的训练数据;
步骤2.4,把构造的已标注的训练数据+原始人工标注的训练数据=训练数据,按照训练集、测试集和验证集划分,进行地址要素切词模型训练,选取切词准确率最高的作为最终的模型,进而用最终保留的模型对地址进行地址要素切词。
作为本发明一种基于自训练地址切分模型的全国地址归一化方法的进一步优选方案,在步骤2中,地址融合具体如下:
步骤a,对采集到的多源地址数据利用训练好的地址要素切词模型进行地址分词;
步骤b,设定规则,过滤掉分词后的地址数据中无价值或者错误的地址;
步骤c,对过滤后的地址数据,采用规则和投票机制进行地址融合,地址融合提取8个地址要素:省、市、区、街道、村、路、路号和标志性建筑物landmark,忽略原始地址中的与标志性建筑物并列的建筑物、兴趣点、户室和其他四个地址要素,融合后的地址中增加一个landmark_search字段,作为标志性建筑物landmark字段的别名补充字段,并且每个别名都统计相应的频数。
作为本发明一种基于自训练地址切分模型的全国地址归一化方法的进一步优选方案,在步骤3中,利用融合后的8级地址要素的地址构建标准地址库。
作为本发明一种基于自训练地址切分模型的全国地址归一化方法的进一步优选方案,所述步骤4具体如下:
步骤4.1,基于步骤3构建的标准地址库,提供地址归一化服务,用户输入待归一化的原始数据地址;
步骤4.2,对原始地址进行预处理,规范数字的写法,统一成全半角写法,去掉地址中存在的非法字符;
步骤4.3对预处理后的地址进行地址要素切词;其中,地址要素包含省、市、区、街道、村、路、路号、标志性建筑物、与标志性建筑物并列的建筑物、兴趣点、户室;
步骤4.4,将切词后的地址数据分为两部分,第一部分包括:省、市、区、街道、村、路、路号和标志性建筑物,第二部分包括:兴趣点和户室;
步骤4.5,针对第一部分数据判断标准地址库中是否存在当前地址的标志性建筑物,若存在,且符合推荐规则,则将地址库中匹配到的推荐度最高的8级地址要素的标准数据与输入数据的第二部分合并,将合并后的结果返回给用户;
步骤4.6,若标准地址库中不存在当前地址的标志性建筑物,判断标准地址库中是否存在当前地址的路和路号,若存在,且符合推荐规则,则将地址库中匹配到的推荐度最高的8级地址要素的标准数据与输入数据的第二部分合并,将合并后的结果返回给用户;
步骤4.7,若标准地址库中不存在当前地址的路和路号,判断标准地址库中是否存在当前地址的路,若存在,且符合推荐规则,则将地址库中匹配到的推荐度最高的8级地址要素的标准数据与输入数据的第二部分合并,将合并后的结果返回给用户;
步骤4.8,按照步骤4.1至步骤4.7所述方法,依次对当前地址的村、街道、镇、区和市进行判断,若存在,且符合推荐规则,将地址库中匹配到的推荐度最高的8级地址要素的标准数据与输入数据的第二部分合并,将合并后的结果返回给用户,若直到当前地址的市都不存在,则该条地址无法归一化。
本发明采用以上技术方案与现有技术相比,具有以下效果:
1、本发明对多源的地址数据制定统一的标准,构建标准地址库,提供地址规范、补全和纠偏的服务,来实现多源地址数据的归一化。具体效果如下:采用自训练切词模型前后效果对比如表1所示,自训练切词的效率是每切1w条需要48s,硬件环境:E5-2697cpu.512G内存,1080TiGPU。
2、基于南京市标准地址库的归一化测试,分别用从水、电和燃气采集的地址进行归一化,平均归一化率可达81.8%,并且从这三类可归一化的地址中分别随机抽取500条地址,进行人工验证归一化的准确率,平均准确率可达93.27%。
附图说明
图1是本发明地址归一化整体框架图;
图2是本发明地址切词模型算法流程图;
图3是本发明地址归一化服务流程图;
图4是本发明人工标注数据格式示意图。
具体实施方式
下面结合附图对本发明的技术方案做进一步的详细说明:
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一种基于自训练地址切分模型的全国地址归一化方法,如图1所示,具体包含如下步骤;
步骤1,采集互联网和相关部门的地址数据;
步骤2,对步骤1采集的互联网和相关部门的地址数据进行预处理,其中,预处理具体包含地址数据特征分析、自训练模型切词、地址融合和地址存储四部分;
步骤3,利用步骤2中融合好的地址构建标准地址库;
步骤4,基于步骤3构建的标准地址库,提供地址归一化接口,实现地址规范、地址补全和地址纠偏。
首先,通过对收集的各种数据源地址进行特征分析,将地址定义为不同的地址要素:省、市、区、街道、村、路、路号、标志性建筑物、与标志性建筑物并列的建筑物、兴趣点、户室和与地址无关的信息。
如图2所示,采用自训练的BERT预训练模型+BI-LSTM+CRF训练地址要素切词模型,其中训练地址的采集和构造过程中遵守两个原则:A.地址的普适性;B.各类地址的均衡性,并且最终模型的产生则遵守‘多轮迭代’原则,每轮迭代都会根据人工验证过程中模型切错的地址,构造相应的新地址,再添加到训练集中重新训练,最后选取准确率最高的模型作为最终模型。用最终保留的模型(准确率最高的模型)对地址进行地址要素切词。接下来,针对切词后的地址,提取8个地址要素:省、市、区、街道、村、路、路号和标志性建筑物landmark,然后进行地址融合,忽略原始地址中的与标志性建筑物并列的建筑物、兴趣点、户室和其他,融合后的地址中增加一个landmark_search字段,作为标志性建筑物landmark字段的不同写法补充字段,如landmark为“烽火科技大厦”的记录中,landmark_search字段是“烽火科技”和“烽火大厦”,以及这两中写法出现的频次。然后,利用融合后的地址构建标准地址库;最后,基于已经构建完成的标准地址库,提供地址规范、补全和纠偏的服务。
对多源的地址数据制定统一的标准,构建标准地址库,提供地址规范、补全和纠偏的服务,来实现多源地址数据的归一化。首先,采集互联网和相关部门的地址数据;然后,对数据进行一系列的处理;最后,利用融合好的地址构建标准地址库,其中,地址的一系列处理步骤可以依次分为:地址数据特征分析、自训练模型切词(BERT预训练模型+BI-LSTM+CRF模型进行地址要素切词)、地址融合和地址存储四个子模块。最后,基于构建的标准地址库,提供地址归一化接口,实现地址规范、补全和纠偏功能。具体实现方法步骤如下:
采集互联网和相关部门的地址数据;
对采集到的多源地址数据,进行特征分析,将地址定义不同的地址要素:省、市、区、街道、村、路、路号、标志性建筑物、与标志性建筑物并列的建筑物、兴趣点、户室和其他;
如图2所示,训练BERT预训练模型+BI-LSTM+CRF模型进行地址要素切词,之所以把该模型称为自训练模型,是因为在训练切词模型的过程中,对输入的训练数据进行了精心的挑选。挑选的过程中,严格遵守两个原则:A.地址的普适性,收集的地址会来自不同的机构,可能会携带一定的结构特点,如果不加以考虑会降低模型的鲁棒性,而人工标注的地址数据则充分考虑这个原则后提取出的;B.各类地址的均衡性(不同类的地址指的是:拥有地址要素级别序列不同的地址),若训练数据的结构太单一,会降低模型的泛化能力,在构造每类级别的地址数量时,则直接根据人工标注的地址比例生产数据。最终模型的产生则是‘多轮迭代’后最优的模型(最终模型的产出至少需要3轮迭代),训练模型的过程中,涉及到很多重要的参数,比如构造数据的数量等等,针对这些参数会按照格搜索找到相对最优解,并且会对每轮训练的模型进行人工验证,均保留切错的实例,并且根据实例构造相应的地址,让模型能够加强训练学习到该类地址的切词能力。
切词模型的大致流程如下:首先,制定标注规范;接下来,根据标注规范,人工标注一定数量地址作为模型的原始训练数据,人工标注是指将原始地址数据按照地址要素的定义进行分词和标记;如图4所示,人工标注数据格式示意图,然后,统计出人工标注数据的地址要素级别序列,最后根据统计出的地址要素级别序列,根据不同地址要素级别序列的比列,成倍的构造一定数额的标注好的训练数据。然后把构造的已标注的训练数据+原始人工标注的训练数据=训练数据,把其按照训练集、测试集和验证集划分,进行地址要素切词模型训练,最终选取切词准确率最高的作为最终的模型。
对采集到的多源地址数据利用训练好的地址要素切词模型进行地址分词,原始地址被分为12个地址要素:省、市、区、街道、村、路、路号、标志性建筑物、与标志性建筑物并列的建筑物、兴趣点、户室和与地址无关的信息。
设定规则,过滤掉分词后的地址数据中无价值或者错误的地址,如地址中出现省市区对应关系错误的和不存在的省市等等;
对过滤后较为纯净的地址数据,采用规则和投票机制进行地址融合,地址融合提取8个地址要素:省、市、区、街道、村、路、路号和标志性建筑物landmark,忽略原始地址中的与标志性建筑物并列的建筑物、兴趣点、户室和与地址无关信息四个地址要素,融合后的地址中增加一个landmark_search字段,landmark_search是一个字典,记录同一个landmark不同的写法以及该写法对应的频数;
利用融合后的8级地址要素的地址构建标准地址库;
基于标准地址库,提供地址归一化服务,用户输入待归一化的原始数据地址;
如图3所示,对原始地址进行预处理,包含:规范数字的写法,统一成全半角写法,去掉地址中存在的非法字符;
对预处理后的地址进行地址要素切词:省、市、区、街道、村、路、路号、标志性建筑物、与标志性建筑物并列的建筑物、兴趣点、户室和与地址无关的信息;
将切词后的地址数据分为两部分,第一部分包括:省、市、区、街道、村、路、路号和标志性建筑物,第二部分包括:兴趣点和户室;
针对第一部分数据判断标准地址库中是否存在当前地址的标志性建筑物,如果存在,且符合推荐规则,将地址库中匹配到的推荐度最高的8级地址要素的标准数据与输入数据的第二部分合并,将合并后的结果返回给用户;
如果标准地址库中不存在当前地址的标志性建筑物,判断标准地址库中是否存在当前地址的路和路号,如果存在,且符合推荐规则,将地址库中匹配到的推荐度最高的8级地址要素的标准数据与输入数据的第二部分合并,将合并后的结果返回给用户;
如果标准地址库中不存在当前地址的路和路号,判断标准地址库中是否存在当前地址的路,如果存在,且符合推荐规则,将地址库中匹配到的推荐度最高的8级地址要素的标准数据与输入数据的第二部分合并,将合并后的结果返回给用户;
同样按照上述方法,依次对当前地址的村、街道、镇、区和市进行判断,如果存在,且符合推荐规则,将地址库中匹配到的推荐度最高的8级地址要素的标准数据与输入数据的第二部分合并,将合并后的结果返回给用户,如果直到当前地址的市都不存在,那么告诉用户该条地址无法归一化。
本发明对多源的地址数据制定统一的标准,构建标准地址库,提供地址规范、补全和纠偏的服务,来实现多源地址数据的归一化。具体效果如下:采用自训练切词模型前后效果对比如表1所示,自训练切词的效率是每切1w条需要48s,硬件环境:E5-2697cpu.512G内存,1080TiGPU。
表1
Figure BDA0003375236460000071
基于南京市标准地址库的归一化测试结果如表2,分别用从水、电和燃气采集的地址进行归一化,平均归一化率可达81.8%,并且从这三类可归一化的地址中分别随机抽取500条地址,进行人工验证归一化的准确率,平均准确率可达93.27%具体结果如表3所示:
表2
地址类型 可归一化量 总地址量 可归一化率
电力 2477750 3406445 72.73%
燃气 1681555 1945562 86.43%
自来水 1651433 1915045 86.23%
表3
地址类型 验证的地址数 正确量 准确率
电力 500 468 93.6%
燃气 500 466 93.2%
自来水 500 465 93%
本技术领域技术人员可以理解的是,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。
以上实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。上面对本发明的实施方式作了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下做出各种变化。

Claims (6)

1.一种基于自训练地址切分模型的全国地址归一化方法,其特征在于该方法具体包含如下4个步骤:
步骤1,采集互联网和相关部门的地址数据;
步骤2,对步骤1采集的互联网和相关部门的地址数据进行预处理,其中,预处理过程具体包含地址数据特征分析、自训练模型切词、地址融合和地址存储四部分;
步骤3,利用步骤2融合好的地址构建标准地址库;
步骤4,基于步骤3构建的标准地址库,提供地址归一化接口,实现地址规范、地址补全和地址纠偏。
2.根据权利要求1所述的一种基于自训练地址切分模型的全国地址归一化方法,其特征在于:在步骤2中,地址数据特征分析具体如下;
对采集到的多源地址数据,进行特征分析,将地址数据分别定义为不同级别的地址要素;其中,地址要素包含省、市、区、街道、村、路、路号、标志性建筑物、与标志性建筑物并列的建筑物、兴趣点、户室和与地址无关的信息。
3.根据权利要求1所述的一种基于自训练地址切分模型的全国地址归一化方法,其特征在于:在步骤2中,自训练模型切词具体如下;
步骤2.1,制定标注规范,规范内容为:严格按照步骤4中定义的地址要素,对地址打标;
步骤2.2,根据标注规范,将人工标注地址作为原始模型的原始训练数据,人工标注是指将原始地址数据人工进行12个地址要素的分词和标记;
步骤2.3,统计出人工标注数据的地址要素级别序列,根据统计出的地址要素级别序列,然后按不同地址要素级别序列的比列,成倍的构造标注好的训练数据;
步骤2.4,把构造的已标注的训练数据+原始人工标注的训练数据=训练数据,按照训练集、测试集和验证集划分,进行地址要素切词模型训练,选取切词准确率最高的作为最终的模型,进而用最终保留的模型对地址进行地址要素切词。
4.根据权利要求1所述的一种基于自训练地址切分模型的全国地址归一化方法,其特征在于:在步骤2中,地址融合具体如下:
步骤a,对采集到的多源地址数据利用训练好的自训练地址切分模型进行地址分词;
步骤b,设定规则,例如:地址字符长度小于5的被视为无价值的地址,省市区隶属关系不正确的被视为错误的地址。过滤掉分词后的地址数据中无价值或错误的地址;
步骤c,对过滤后的地址数据,采用规则和投票机制进行地址融合,地址融合提取8个地址要素:省、市、区、街道、村、路、路号和标志性建筑物landmark,忽略原始地址中的与标志性建筑物并列的建筑物、兴趣点、户室和与地址无关的信息四个地址要素,融合后的地址中增加一个landmark_search字段,landmark_search是一个字典,记录同一个landmark不同的写法以及该写法对应的频数。
5.根据权利要求1所述的一种基于自训练地址切分模型的全国地址归一化方法,其特征在于:在步骤3中,利用融合后的8级地址要素的地址构建标准地址库。
6.根据权利要求5所述的一种基于自训练地址切分模型的全国地址归一化方法,其特征在于:所述步骤4具体如下:
步骤4.1,基于步骤3构建的标准地址库,提供地址归一化服务,用户输入待归一化的原始数据地址;
步骤4.2,对原始地址进行预处理,规范数字的写法,统一成全半角写法,去掉地址中存在的非法字符;
步骤4.3对预处理后的地址进行地址要素切词;其中,地址要素包含省、市、区、街道、村、路、路号、标志性建筑物、与标志性建筑物并列的建筑物、兴趣点、户室和与地址无关的信息;
步骤4.4,将切词后的地址数据分为两部分,第一部分包括:省、市、区、街道、村、路、路号和标志性建筑物,第二部分包括:兴趣点和户室;
步骤4.5,针对第一部分数据判断标准地址库中是否存在当前地址的标志性建筑物,若存在,且符合推荐规则,则将地址库中匹配到的推荐度最高的8级地址要素的标准数据与输入数据的第二部分合并,将合并后的结果返回给用户;
步骤4.6,若标准地址库中不存在当前地址的标志性建筑物,判断标准地址库中是否存在当前地址的路和路号,若存在,且符合推荐规则,则将地址库中匹配到的推荐度最高的8级地址要素的标准数据与输入数据的第二部分合并,将合并后的结果返回给用户;
步骤4.7,若标准地址库中不存在当前地址的路和路号,判断标准地址库中是否存在当前地址的路,若存在,且符合推荐规则,则将地址库中匹配到的推荐度最高的8级地址要素的标准数据与输入数据的第二部分合并,将合并后的结果返回给用户;
步骤4.8,按照步骤4.1至步骤4.7所述方法,依次对当前地址的村、街道、镇、区和市进行判断,若存在,且符合推荐规则,将地址库中匹配到的推荐度最高的8级地址要素的标准数据与输入数据的第二部分合并,将合并后的结果返回给用户,若直到当前地址的市都不存在,则该条地址无法归一化。
CN202111413815.9A 2021-11-25 2021-11-25 一种基于自训练地址切分模型的全国地址归一化方法 Pending CN114416892A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111413815.9A CN114416892A (zh) 2021-11-25 2021-11-25 一种基于自训练地址切分模型的全国地址归一化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111413815.9A CN114416892A (zh) 2021-11-25 2021-11-25 一种基于自训练地址切分模型的全国地址归一化方法

Publications (1)

Publication Number Publication Date
CN114416892A true CN114416892A (zh) 2022-04-29

Family

ID=81265883

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111413815.9A Pending CN114416892A (zh) 2021-11-25 2021-11-25 一种基于自训练地址切分模型的全国地址归一化方法

Country Status (1)

Country Link
CN (1) CN114416892A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116402050A (zh) * 2022-12-26 2023-07-07 北京码牛科技股份有限公司 一种地址归一化及补充方法、装置、电子设备及存储介质
CN117457135A (zh) * 2023-12-22 2024-01-26 四川互慧软件有限公司 一种地址数据治理方法和循环神经网络模型构建方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116402050A (zh) * 2022-12-26 2023-07-07 北京码牛科技股份有限公司 一种地址归一化及补充方法、装置、电子设备及存储介质
CN116402050B (zh) * 2022-12-26 2023-11-10 北京码牛科技股份有限公司 一种地址归一化及补充方法、装置、电子设备及存储介质
CN117457135A (zh) * 2023-12-22 2024-01-26 四川互慧软件有限公司 一种地址数据治理方法和循环神经网络模型构建方法
CN117457135B (zh) * 2023-12-22 2024-04-09 四川互慧软件有限公司 一种地址数据治理方法和循环神经网络模型构建方法

Similar Documents

Publication Publication Date Title
Zhang et al. A predictive data feature exploration-based air quality prediction approach
CN109033086A (zh) 一种地址解析、匹配的方法及装置
CN111324679B (zh) 地址信息的处理方法、装置和***
CN114416892A (zh) 一种基于自训练地址切分模型的全国地址归一化方法
CN101299217B (zh) 一种地图信息处理的方法、装置和***
CN103440311A (zh) 一种地名实体识别的方法及***
WO2016050088A1 (zh) 一种地址搜索方法和设备
CN109344263B (zh) 一种地址匹配方法
CN102955833A (zh) 一种通讯地址识别、标准化的方法
CN109933797A (zh) 基于Jieba分词及地址词库的地理编码方法和***
CN107766433A (zh) 一种基于Geo‑BTree的范围查询方法及装置
CN110309432B (zh) 基于兴趣点的同义词确定方法、地图兴趣点处理方法
CN104679801A (zh) 一种兴趣点搜索方法和装置
CN109165273A (zh) 一种面向大数据环境的通用中文地址匹配方法
CN107463711A (zh) 一种数据的标签匹配方法及装置
CN112528174A (zh) 基于知识图谱和多重匹配的地址修整补全方法及应用
CN110688434B (zh) 一种兴趣点处理方法、装置、设备和介质
CN110990520A (zh) 一种地址编码方法、装置、电子设备和存储介质
CN108733810A (zh) 一种地址数据匹配方法及装置
CN116414823A (zh) 一种基于分词模型的地址定位方法和装置
CN108345662A (zh) 一种考虑用户分布区域差异的签到微博数据加权统计方法
Li et al. Neural Chinese address parsing
CN115658837A (zh) 地址数据处理方法和装置、电子设备和存储介质
CN105426392A (zh) 一种协同过滤推荐方法及***
CN112069824B (zh) 基于上下文概率和引证的地域识别方法、装置及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination