CN110956196B - 一种城市建筑物窗墙比自动识别方法 - Google Patents

一种城市建筑物窗墙比自动识别方法 Download PDF

Info

Publication number
CN110956196B
CN110956196B CN201910964461.3A CN201910964461A CN110956196B CN 110956196 B CN110956196 B CN 110956196B CN 201910964461 A CN201910964461 A CN 201910964461A CN 110956196 B CN110956196 B CN 110956196B
Authority
CN
China
Prior art keywords
picture
window
model
prediction
wall
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910964461.3A
Other languages
English (en)
Other versions
CN110956196A (zh
Inventor
王超
石邢
王萌
柳儒杨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN201910964461.3A priority Critical patent/CN110956196B/zh
Publication of CN110956196A publication Critical patent/CN110956196A/zh
Application granted granted Critical
Publication of CN110956196B publication Critical patent/CN110956196B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种城市建筑物窗墙比自动识别方法。通过拍摄满足一定要求的样本图片,并进行像素级标注,生成XML文件导入改进的Unet架构中。运用缩放与扫窗的方式对图片中的外墙与窗户分别进行识别训练。训练完成后,选取一定数量的样本进行预测与图片修补,当满足80%以上的预测样本识别误差小于10%时,认为模型训练效果较好。此时,依据已设定的参数建立模型预测库,并推广到城市海量建筑的窗墙比识别应用中。对于城市大范围的图片获取,可依赖拍摄或免费地图网站。最终,将需预测的图片输入模型预测库,预测得到每幢建筑的窗墙比值。本发明提供的城市建筑物窗墙比自动识别方法可服务于城市能耗模拟,将有效提高城市能耗模型的建立速度及精度。

Description

一种城市建筑物窗墙比自动识别方法
技术领域
本发明属于节能技术领域,涉及城市能耗模拟的模型构建,具体为一种城市建筑物窗墙比自动识别方法。
背景技术
在新时代下,实现节能减排这一目标,不仅需要分析当下的能源消耗,还应对城市未来的能耗需求有一个较为清晰、准确的预测,以提前制定出合理、有效的能源政策。这一迫切的需求,催生出了“城市能耗模拟”这一方法。
城市能耗模拟,是一种“自下而上”,基于物理模型的模拟方法。通过建立城市的三维模型,并为其赋予包括围护结构热工参数,设备***参数,人员活动表,设备运行表,天气信息等在内的诸多信息,以运行耗模拟软件进行城市能耗模拟。德国学者Nouvel(2017)指出,城市能耗模拟的准确性与其输入参数的准确性有着十分密切的关系。而在这些输入参数中,城市三维模型的建立既是模拟的基础,也是模拟的关键。一个准确的城市三维模型的建立,可以大大提高城市能耗模拟的精度。美国学者Cerezo Davila(2016)指出,在城市三维模型的建立中,窗墙比信息往往与实际值有很大偏差。窗墙比是指,某一朝向的外窗(包括透明幕墙)总面积,与同朝向墙面总面积(包括窗面积在内)的比值。这一参数,通常决定建筑物的采光与隔热效果,对建筑的能耗有着重要影响。而在实际操作中,由于该指标不易直接得到,研究者们为了简化建模,通常以0.1-0.8之间的随机值,作为建筑物的窗墙比值。这一简化,无疑造成了输入参数的不精确,进而影响整个城市能耗模拟的精度。
近年来,鲜有对建筑物窗墙比信息获取的研究。一种较为先进的方法是通过无人机的倾斜摄影,来获取建筑物窗墙比信息。但是这种技术手段实施费用昂贵,并且在城市中飞行无人机,需要受到诸多管制,很难大范围拍摄。因此,该方法对于城市尺度海量建筑的窗墙比信息获取是较为困难的。随着计算机深度学习的不断发展,图像识别技术也变得愈发成熟。图像识别技术目前被广泛地用于自动驾驶,室内导航,街景分析等。西班牙学者Garcia-Garcia(2017)在论文中指出,计算机通过诸如卷积神经网络的算法,从大量的训练样本中学习,实现不同物体间的语义分割,以完成图像识别。虽然训练样本的收集与整理需要花费一定量的时间与人力,但考虑到这是一个一劳永逸的工作,建立一个有效的训练数据库是十分必要的。
发明内容
本发明要解决的问题是:现有的获取建筑物窗墙比的方法准确度不高,或者实施成本过于昂贵,无法推广到城市海量建筑的建模中,需要一种更为低廉、快速、准确、普适的城市建筑物窗墙比信息获取方法,为城市能耗模拟研究提供技术支持。
为解决上述技术问题,本发明公开了一种城市建筑物窗墙比自动识别方法,对于城市海量建筑的窗墙比信息获取,也需要建立一个包含一定数量建筑立面的训练库,以指导计算机自动识别出其他剩余建筑的窗墙比。事实上,训练样本的数量远少于需要识别的建筑数。通过这种方法,既可以大大提高工作效率,而且相对于常规的“随机值法”而言,也能提高城市三维建模的精度,进而提高城市能耗模拟的准确性。
为达到上述目的,本发明公开了一种城市建筑物窗墙比自动识别方法,包括以下步骤:
步骤一:样本建筑立面拍摄,获得样本图片;
样本建筑立面拍摄是建立训练库的初始步骤。对于样本的选择,具有以下要求:
1.样本建筑应尽可能覆盖各种建筑类型,如:住宅,商场,办公,学校,医院等;
2.样本建筑应尽可能覆盖不同建筑风格,如:大面积玻璃幕墙办公楼和非大面积玻璃幕墙办公楼;标准矩形立面建筑和非矩形立面建筑等;
3.样本建筑应尽可能选取不同年代的建筑作为代表,如:新、旧住宅小区等。
在拍摄建筑立面时,不必完整拍摄整个立面,但应尽可能保证:
1.以正视视角拍摄目标立面,不仰视、不倾斜;
2.立面拍摄基本无遮挡,如:树木遮挡,汽车遮挡等;
3.不远距离拍摄建筑立面,以防窗户显示过小。
拍摄工具可选取手机、相机等移动设备。
步骤二:样本图片标注;
本发明采用像素级标注;像素级标注是指严格沿着物体的外轮廓进行标注,在本发明中,具体指对拍摄图片中的建筑外墙以及每扇窗户的轮廓进行逐一标注,并分别赋予被标注物以标签:“墙”或“窗”。标注完毕后,导出生成XML文件(Extensible MarkupLanguage,可扩展标记语言)。
步骤三:模型训练;
1.训练模型框架选择:本发明采用的基础框架模型是Unet架构。Unet最初是为医学图像分割而设计的,其优点在于:所需输入特征参数少,适用于小样本量的预测,适合大图像照片。本发明的目标是对建筑物窗户与外墙的自动识别,区分外墙、外窗及其他物体采用的特征参数为形状和颜色(通过RGB值反映),特征参数相对较少。本发明期望通过少量的建筑标注,进行海量建筑物窗墙比的预测,是一个小样本问题。另外,拍摄的照片分辨率普遍大于3000*3000,为大图像照片。综上,Unet架构非常适合本发明的需求。
2.Unet架构的改进:Unet架构又称编码器-解码器结构,其由三部分构成,所述Unet架构包括特征提取、上采样、通道;前半部分作用为特征提取(又称“下采样”,编码器部分),后半部分为上采样(解码器部分),中间部分为供梯度流通的通道。特征提取的作用在于:对输入的图片经过下采样编码,得到浓缩原图信息的高分辨率信息;上采样的目的在于恢复图片信息,得到所需的结果;通道的作用在于方便模型更好地收集全局信息。对Unet架构的改进在于:(1)增加采样层数并添加bn层,提高特征提取的准确度;(2)解码器调用ILSVRC比赛中预训练的ResNet模型参数,可以提高解码的精度,并大大减少模型训练的时间。
3.外墙识别训练:为了节约训练的时间成本,Unet训练网络要求输入的图片分辨率统一,且不可过大,宜在250×250~600×600之间。但是通常情况下,拍摄的图片分辨率一般大于该要求值,需要进行一定的处理。常用的处理方式为:缩放与扫窗(扫窗指先分割图像,再逐一扫描)。缩放会损失图片的细节,而扫窗会大大增加训练时间。对于外墙而言,其在图片中占比较大,可以通过缩放的方式压缩进Unet网络,其细节损失很小,可以忽略不计。接着,进行二元识别训练,即将外墙作为一类,其他物体作为另一类进行识别学习。
4.窗户识别训练:窗户在图片中的特征是:数量较多,但每个窗户的面积很小。若对窗户进行缩放处理,会损失过多的细节,影响训练的效果。因此,首先需对图片进行扫窗处理,将图片分割成小块分别放入Unet网络。接着,对每个小块分别进行窗户的二元识别训练。
步骤四:样本图片预测;
1.预测样本图片拍摄要求:在实际应用中,目标建筑外立面的拍摄通常无法完全满足训练样本的拍摄需求,势必会存在一些倾斜、仰视拍摄,树木遮挡问题。事实上,为了尽可能的接近实际拍摄状况,预测样本的图片拍摄要求远不如训练时严格,其允许图片中的建筑存在一定的倾斜和树木遮挡问题。
2.外墙预测:外墙与窗户的预测分开进行。预测外墙时,通过缩放的方式将需要预测的图片压缩至训练图片规定的大小,放入模型进行预测,得出结果后再将图片还原至原大小。
3.窗户预测:预测窗户时,通过扫窗的方式对需要预测的图片进行分割,分割大小与训练图片规定的大小一致。接着,将所有分割后的图片放入模型进行预测,得出结果后再将图片拼接至原大小。
4.缺失要素自动修补:由于树木对部分建筑存在一定的遮挡,会导致外墙和部分窗户的残缺,需对其进行要素修补。本发明采用基于CRF(Conditional Random Field)算法的修补,其通过结合原图的形状和颜色信息,对预测图像做出修正。
步骤五:模型精度验证;
在完成墙与窗的自动识别,以及其缺失部分的自动修补后,由计算机自动统计每一张预测图片上外墙与窗的面积,并通过式(1)计算得到窗墙比ηi
ηi=Si,window/Si,wall (1)
其中,i表示第i张预测图片,Si,window表示第i张预测图片中窗户的总面积,Si,wall表示第i张预测图片中外墙的面积。若满足80%以上的预测样本误差小于10%,则认为精度满足要求,执行步骤六;否则,返回步骤一,并重新完成步骤一至四。
步骤六:建立预测模型库;
保留步骤三和步骤四中的模型网络架构与相关设定参数,形成最终的预测模型库。
步骤七:城市建筑立面图片获取;
目标建筑立面图片的获取既可通过拍摄的方式获得,如:手持手机/相机拍摄,车载或机载相机拍摄;也可通过免费的地图网站获得,如:百度全景图片,这样可以大大节约图片采集的时间。
步骤八:城市建筑立面图片预测;
将步骤七中获取的图片放入步骤六的模型库之中,预测方法同步骤四,具体包括外墙识别,窗户识别以及缺失要素自动修补。
步骤九:城市建筑物窗墙比获取;
依据步骤八最终预测与修补后得到的外墙与窗户的面积,通过式(1)计算得到各目标建筑物窗墙比。
本发明具有以下优点:
1.本发明实施成本较低。本发明的数据获取仅依赖拍摄或免费地图网站,且模型训练与图片预测使用普通电脑即可完成,总成本较低;
2.本发明预测精度较高。本发明对于大多数预测样本可以做到较低的预测误差,且具有自动修补残缺窗、墙的特点,保证整个预测过程的高精度;
3.本发明可以节省大量的时间与人力。本发明通过少量样本的标注与模型训练,即可建立有效的预测模型库,进而完成城市海量建筑窗墙比值的自动预测。
附图说明
图1为本发明流程图;
图2为像素级标注示例图;
图3为Unet架构示意图;
图4为图片预测识别样例图:(a)预测原图;(b)外墙识别预测;(c)外窗识别预测。
具体实施方式
下面结合附图和具体实施方式,进一步阐明本发明,应理解下述具体实施方式仅用于说明本发明而不用于限制本发明的范围。
本实施例公开了一种城市建筑物窗墙比自动识别方法,下面根据图1至图4对具体实施方式做出进一步说明:
如图1所示,一种城市建筑物窗墙比自动识别方法,包括以下步骤:
步骤一:样本建筑立面拍摄,获得样本图片;
样本建筑立面拍摄是建立训练库的初始步骤。对于样本的选择,具有以下要求:
1.样本建筑应尽可能覆盖各种建筑类型,如:住宅,商场,办公,学校,医院等;
2.样本建筑应尽可能覆盖不同建筑风格,如:大面积玻璃幕墙办公楼和非大面积玻璃幕墙办公楼;标准矩形立面建筑和非矩形立面建筑等;
3.样本建筑应尽可能选取不同年代的建筑作为代表,如:新、旧住宅小区等。
在拍摄建筑立面时,不必完整拍摄整个立面,但应尽可能保证:
1.以正视视角拍摄目标立面,不仰视、不倾斜;
2.立面拍摄基本无遮挡,如:树木遮挡,汽车遮挡等;
3.不远距离拍摄建筑立面,以防窗户显示过小。
拍摄工具可选取手机、相机等移动设备。
步骤二:样本图片标注;
如图2所示,本发明采用像素级标注;像素级标注是指严格沿着物体的外轮廓进行标注,在本发明中,具体指对拍摄图片中的建筑外墙以及每扇窗户的轮廓进行逐一标注,并分别赋予被标注物以标签:“墙”或“窗”。标注完毕后,导出生成XML文件(ExtensibleMarkup Language,可扩展标记语言)。
步骤三:模型训练;
1.训练模型框架选择:本发明采用的基础框架模型是Unet架构。Unet最初是为医学图像分割而设计的,其优点在于:所需输入特征参数少,适用于小样本量的预测,适合大图像照片。本发明的目标是对建筑物窗户与外墙的自动识别,区分外墙、外窗及其他物体采用的特征参数为形状和颜色(通过RGB值反映),特征参数相对较少。本发明期望通过少量的建筑标注,进行海量建筑物窗墙比的预测,是一个小样本问题。另外,拍摄的照片分辨率普遍大于3000*3000,为大图像照片。综上,Unet架构非常适合本发明的需求。
2.Unet架构的改进(如图3所示):Unet架构又称编码器-解码器结构,其由三部分构成,所述Unet架构包括特征提取、上采样、通道;前半部分作用为特征提取(又称“下采样”,编码器部分),后半部分为上采样(解码器部分),中间部分为供梯度流通的通道。特征提取的作用在于:对输入的图片经过下采样编码,得到浓缩原图信息的高分辨率信息;上采样的目的在于恢复图片信息,得到所需的结果;通道的作用在于方便模型更好地收集全局信息。对Unet架构的改进在于:(1)增加采样层数并添加bn层,提高特征提取的准确度;(2)解码器调用ILSVRC比赛中预训练的ResNet模型参数,可以提高解码的精度,并大大减少模型训练的时间。
3.外墙识别训练:为了节约训练的时间成本,Unet训练网络要求输入的图片分辨率统一,且不可过大,宜在250×250~600×600之间。但是通常情况下,拍摄的图片分辨率一般大于该要求值,需要进行一定的处理。常用的处理方式为:缩放与扫窗(扫窗指先分割图像,再逐一扫描)。缩放会损失图片的细节,而扫窗会大大增加训练时间。对于外墙而言,其在图片中占比较大,可以通过缩放的方式压缩进Unet网络,其细节损失很小,可以忽略不计。接着,进行二元识别训练,即将外墙作为一类,其他物体作为另一类进行识别学习。
4.窗户识别训练:窗户在图片中的特征是:数量较多,但每个窗户的面积很小。若对窗户进行缩放处理,会损失过多的细节,影响训练的效果。因此,首先需对图片进行扫窗处理,将图片分割成小块分别放入Unet网络。接着,对每个小块分别进行窗户的二元识别训练。
步骤四:样本图片预测(如图4所示);
1.预测样本图片拍摄要求:在实际应用中,目标建筑外立面的拍摄通常无法完全满足训练样本的拍摄需求,势必会存在一些倾斜、仰视拍摄,树木遮挡问题。事实上,为了尽可能的接近实际拍摄状况,预测样本的图片拍摄要求远不如训练时严格,其允许图片中的建筑存在一定的倾斜和树木遮挡问题。
2.外墙预测:外墙与窗户的预测分开进行。预测外墙时,通过缩放的方式将需要预测的图片压缩至训练图片规定的大小,放入模型进行预测,得出结果后再将图片还原至原大小。
3.窗户预测:预测窗户时,通过扫窗的方式对需要预测的图片进行分割,分割大小与训练图片规定的大小一致。接着,将所有分割后的图片放入模型进行预测,得出结果后再将图片拼接至原大小。
4.缺失要素自动修补:由于树木对部分建筑存在一定的遮挡,会导致外墙和部分窗户的残缺,需对其进行要素修补。本发明采用基于CRF(Conditional Random Field)算法的修补,其通过结合原图的形状和颜色信息,对预测图像做出修正。
步骤五:模型精度验证;
在完成墙与窗的自动识别,以及其缺失部分的自动修补后,由计算机自动统计每一张预测图片上外墙与窗的面积,并通过式(1)计算得到窗墙比ηi
ηi=Si,window/Si,wall (1)
其中,i表示第i张预测图片,Si,window表示第i张预测图片中窗户的总面积,Si,wall表示第i张预测图片中外墙的面积。若满足80%以上的预测样本误差小于10%,则认为精度满足要求,执行步骤六;否则,返回步骤一,并重新完成步骤一至四。
步骤六:建立预测模型库;
保留步骤三和步骤四中的模型网络架构与相关设定参数,形成最终的预测模型库。
步骤七:城市建筑立面图片获取;
目标建筑立面图片的获取既可通过拍摄的方式获得,如:手持手机/相机拍摄,车载或机载相机拍摄;也可通过免费的地图网站获得,如:百度全景图片,这样可以大大节约图片采集的时间。
步骤八:城市建筑立面图片预测;
将步骤七中获取的图片放入步骤六的模型库之中,预测方法同步骤四,具体包括外墙预测、窗户预测以及缺失要素自动修补。
步骤九:城市建筑物窗墙比获取;
依据步骤八最终预测与修补后得到的外墙与窗户的面积,通过式(1)计算得到各目标建筑物窗墙比。
具体如下:
1.获取样本图片。由调研人员持手机(带照相功能)在杭州萧山区以及南京市各行政区拍摄满足步骤一要求的训练图片85张。另外,依据政府资料,拍摄43张具有实际窗墙比值的图片用于预测;
2.训练图片标注。使用免费软件“精灵标注助手”对训练图片中的窗户与外墙逐一进行像素级标注(如图2)。其中,被标注的窗户统一赋予标签“外窗”,被标注的外墙赋予标签“外墙”。标注完成后,导出生成XML文件;
3.图片识别训练。使用python语言搭建步骤三阐述的Unet架构(如图3),并进行相关改进。将XML文件导入进行训练学习,通过添加执行Resize(缩放)的相关语句,进行外墙的识别训练,学习其位置与颜色的特征;通过添加执行Split(分割)的相关语句,进行窗户的识别训练,学习其位置与颜色的特征;
4.样本图片预测。使用python语言搭建的Unet改进架构,输入已学习的外墙与窗户的位置与颜色特征,并添加执行Resize(缩放)和Split(分割)的相关语句,分别对预测样本中的外墙与窗户进行预测,结果如图4。预测完毕后,通过添加执行CRF算法的相关语句,进行外墙与窗户的轮廓修补。最后,由计算机自动统计每张图片中外墙与窗户的面积,通过式(1)计算窗墙比值:
ηi=Si,window/Si,wall (1)
其中,i表示第i张预测图片,Si,window表示第i张预测图片中窗户的总面积,Si,wall表示第i张预测图片中外墙的面积;
5.误差检验。通过式(2)逐一统计每张图片的预测误差εi
εi=|ηi′-ηi|/ηi (2)
其中,ηi,ηi’分别表示第i张预测图片的实际与预测窗墙比值。
最终,在43张预测图片中有31张图片满足误差小于6%,36张图片满足误差小于10%。可达到83.7%的预测样本识别误差小于10%,符合规定的精度要求。此时,可以根据上述的模型网络架构与相关设定参数建立预测模型库。
6.城市建筑物窗墙比的预测。城市建筑立面图片获取,目标建筑立面图片的获取既可通过拍摄的方式获得,如:手持手机/相机拍摄,车载或机载相机拍摄;也可通过免费的地图网站获得,如:百度全景图片,这样可以大大节约图片采集的时间。,获得目标区域的建筑物立面照片,输入预测模型库进行自动识别与修补,并得出各目标建筑的窗墙比值。由于该发明侧重于方法阐述,且预测模型库已建立完毕,落实到整个城市的实施只是一项体力活动,在此不进行说明。
本发明方案所公开的技术手段不仅限于上述实施方式所公开的技术手段,还包括由以上技术特征任意组合所组成的技术方案。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。

Claims (1)

1.一种城市建筑物窗墙比自动识别方法,其特征在于:所述方法包括以下步骤:
步骤一:样本建筑立面拍摄,获取样本图片;
步骤二:样本图片标注;
步骤三:模型构建与训练;
步骤四:测试图片预测;
步骤五:模型精度验证;
步骤六:建立预测模型库;
步骤七:目标建筑立面图片获取;
步骤八:目标建筑窗墙比自动识别;
其中,所述步骤一中的样本建筑立面拍摄的要求包括:以正视视角拍摄目标立面,不仰视、不倾斜;立面拍摄无遮挡;不远距离拍摄建筑立面;
所述步骤二中的样本图片标注采用像素级标注;
所述步骤三中的模型构建与训练包括模型算法选择、Unet的改进、外墙识别训练和窗户识别训练,其中,所述模型通过改进的Unet构建;Unet的基本架构包括:特征提取、上采样及通道三部分;对Unet进行改进:在特征提取部分,增加采样层数,并添加bn层;在上采样部分,调用ILSVRC比赛中预训练的ResNet模型参数;将样本图片用于模型训练,所述外墙识别训练中的样本图片通过缩放的方式放入模型进行训练,所述窗户识别训练中的样本图片通过扫窗的方式,分割成小块放入模型进行训练;
所述步骤四中的测试图片预测包括测试图片拍摄要求、外墙预测、窗户预测和缺失要素自动修补;所述测试图片拍摄要求中,测试图片允许图片中的建筑存在一定的倾斜和树木遮挡问题;所述外墙预测中,通过缩放的方式将测试图片压缩至训练图片规定的大小,放入模型进行预测,得出结果后再将测试图片还原至原大小;所述窗户预测中,通过扫窗的方式对测试图片进行分割,分割大小与训练图片规定的大小一致;将所有分割后的图片放入模型进行预测,得出结果后再将图片拼接至原大小;所述缺失要素自动修补中,由于树木对部分建筑存在一定的遮挡,会导致外墙和部分窗户的残缺,需对残缺的外墙和部分窗户进行要素修补;采用CRF算法进行修补,CRF算法通过结合原图的形状和颜色信息,对测试图像做出修正;
所述步骤五中的模型精度验证,将测试图片输入到模型中,由计算机自动统计每一张测试图片上外墙与窗户的像素面积,并通过式(1)计算得到窗墙比ηi
ηi=Si,window/Si,wall (1)
其中,Si,window表示第i张图片中窗户的总像素面积,Si,wall表示第i张图片中外墙的总像素面积;
通过式(2)逐一统计每张测试图片的预测误差εi
εi=|ηi′-ηi|/ηi (2)
其中,ηi,ηi’分别表示第i张测试图片的预测与实际窗墙比;
若满足80%以上的测试图片误差小于10%,则认为模型精度满足要求,执行步骤六;否则,返回步骤一,并重新完成步骤一至四;
所述步骤六中的预测模型库根据步骤三至五中确定的模型架构及参数建立;
所述步骤七中的目标建筑立面图片通过拍摄的方式获取或通过地图网站获取;
所述步骤八中的目标建筑窗墙比自动识别,将目标建筑立面图片放入预测模型库中进行预测,得到目标建筑窗墙比。
CN201910964461.3A 2019-10-11 2019-10-11 一种城市建筑物窗墙比自动识别方法 Active CN110956196B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910964461.3A CN110956196B (zh) 2019-10-11 2019-10-11 一种城市建筑物窗墙比自动识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910964461.3A CN110956196B (zh) 2019-10-11 2019-10-11 一种城市建筑物窗墙比自动识别方法

Publications (2)

Publication Number Publication Date
CN110956196A CN110956196A (zh) 2020-04-03
CN110956196B true CN110956196B (zh) 2024-03-08

Family

ID=69975578

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910964461.3A Active CN110956196B (zh) 2019-10-11 2019-10-11 一种城市建筑物窗墙比自动识别方法

Country Status (1)

Country Link
CN (1) CN110956196B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111275755B (zh) * 2020-04-28 2020-09-15 中国人民解放军总医院 基于人工智能的二尖瓣瓣口面积检测方法、***和设备
CN112200029B (zh) * 2020-09-27 2022-03-25 电子科技大学 基于改进型UNet++网络的遥感图像建筑物提取方法
CN112613369A (zh) * 2020-12-15 2021-04-06 中国建筑第八工程局有限公司 建筑窗面积的计算方法及***
CN114549956B (zh) * 2022-02-11 2024-05-28 上海市测绘院 一种深度学习辅助的倾斜模型建筑物外立面目标识别方法
CN114973297A (zh) * 2022-06-17 2022-08-30 广州市圆方计算机软件工程有限公司 一种平面户型图的墙体区域识别方法、***、设备及介质
CN117115243B (zh) * 2023-10-23 2024-02-09 北京科技大学 一种基于街景图片的建筑群外立面窗户定位方法及装置

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012193505A (ja) * 2011-03-15 2012-10-11 Sekisui Chem Co Ltd 多層建築物の排水立て管路の改修構造、多層建築物の排水立て管路改修方法、これら改修構造及び改修方法に用いられる集合継手
CN103163181A (zh) * 2013-03-21 2013-06-19 山东省计算中心 基于建筑外景红外图像的热工区域自动识别方法
WO2013185401A1 (zh) * 2012-06-15 2013-12-19 深圳市华星光电技术有限公司 一种光罩及其修正方法
CN105279787A (zh) * 2015-04-03 2016-01-27 北京明兰网络科技有限公司 基于拍照的户型图识别生成三维房型的方法
CN106934140A (zh) * 2017-03-07 2017-07-07 西安理工大学 基于bim的建筑节能自动审查方法
CN107093205A (zh) * 2017-03-15 2017-08-25 北京航空航天大学 一种基于无人机图像的三维空间建筑物窗户检测重建方法
CN107622503A (zh) * 2017-08-10 2018-01-23 上海电力学院 一种恢复图像遮挡边界的分层分割方法
CN108460833A (zh) * 2018-03-28 2018-08-28 中南大学 一种基于bim构建传统建筑数字化保护与修复的信息平台
CN108596465A (zh) * 2018-04-17 2018-09-28 西安建筑科技大学 一种城市居住建筑***碳能测算方法
CN108763606A (zh) * 2018-03-12 2018-11-06 江苏艾佳家居用品有限公司 一种基于机器视觉的户型图元素自动提取方法与***
CN109446992A (zh) * 2018-10-30 2019-03-08 苏州中科天启遥感科技有限公司 基于深度学习的遥感影像建筑物提取方法及***、存储介质、电子设备
CN109992908A (zh) * 2019-04-08 2019-07-09 东南大学 一种城市建筑能耗模拟***

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012193505A (ja) * 2011-03-15 2012-10-11 Sekisui Chem Co Ltd 多層建築物の排水立て管路の改修構造、多層建築物の排水立て管路改修方法、これら改修構造及び改修方法に用いられる集合継手
WO2013185401A1 (zh) * 2012-06-15 2013-12-19 深圳市华星光电技术有限公司 一种光罩及其修正方法
CN103163181A (zh) * 2013-03-21 2013-06-19 山东省计算中心 基于建筑外景红外图像的热工区域自动识别方法
CN105279787A (zh) * 2015-04-03 2016-01-27 北京明兰网络科技有限公司 基于拍照的户型图识别生成三维房型的方法
CN106934140A (zh) * 2017-03-07 2017-07-07 西安理工大学 基于bim的建筑节能自动审查方法
CN107093205A (zh) * 2017-03-15 2017-08-25 北京航空航天大学 一种基于无人机图像的三维空间建筑物窗户检测重建方法
CN107622503A (zh) * 2017-08-10 2018-01-23 上海电力学院 一种恢复图像遮挡边界的分层分割方法
CN108763606A (zh) * 2018-03-12 2018-11-06 江苏艾佳家居用品有限公司 一种基于机器视觉的户型图元素自动提取方法与***
CN108460833A (zh) * 2018-03-28 2018-08-28 中南大学 一种基于bim构建传统建筑数字化保护与修复的信息平台
CN108596465A (zh) * 2018-04-17 2018-09-28 西安建筑科技大学 一种城市居住建筑***碳能测算方法
CN109446992A (zh) * 2018-10-30 2019-03-08 苏州中科天启遥感科技有限公司 基于深度学习的遥感影像建筑物提取方法及***、存储介质、电子设备
CN109992908A (zh) * 2019-04-08 2019-07-09 东南大学 一种城市建筑能耗模拟***

Also Published As

Publication number Publication date
CN110956196A (zh) 2020-04-03

Similar Documents

Publication Publication Date Title
CN110956196B (zh) 一种城市建筑物窗墙比自动识别方法
CN110059694B (zh) 电力行业复杂场景下的文字数据的智能识别方法
CN110826549A (zh) 基于计算机视觉的巡检机器人仪表图像识别方法及***
CN110929577A (zh) 一种基于YOLOv3的轻量级框架改进的目标识别方法
CN110009637B (zh) 一种基于树形结构的遥感图像分割网络
CN110363770B (zh) 一种边缘引导式红外语义分割模型的训练方法及装置
CN111797920B (zh) 门控特征融合的深度网络不透水面遥感提取方法及***
CN110175507B (zh) 模型评估方法、装置、计算机设备和存储介质
CN111104850B (zh) 一种基于残差网络的遥感影像建筑物自动提取方法和***
CN106530345A (zh) 一种同机影像辅助下的建筑物三维激光点云特征提取方法
CN113947766A (zh) 一种基于卷积神经网络的实时车牌检测方法
CN113743358A (zh) 一种全方位采集和智能计算的景观视觉特征识别方法
CN113420109B (zh) 一种街道界面渗透率的测量方法、计算机及存储介质
CN113744185A (zh) 一种基于深度学习和图像处理的混凝土表观裂缝分割方法
CN111626971B (zh) 具有图像语义感知的智慧城市cim实时成像方法
CN112529003A (zh) 一种基于Faster-RCNN的仪表盘数字识别方法
CN117496426A (zh) 基于互学习的预制梁工序识别方法及装置
CN111726535A (zh) 基于车辆感知的智慧城市cim视频大数据画质控制方法
CN116229001A (zh) 一种基于空间熵的城市三维数字地图生成方法及***
CN115223114A (zh) 一种基于双向融合特征金字塔的端到端车辆姿态估计方法
CN115359091A (zh) 一种用于移动机器人的装甲板检测跟踪方法
CN115170783A (zh) 一种使用街景图像的快速公路路面裂缝检测方法
CN113762021A (zh) 一种基于循环神经网络和注意力引导机制的复杂路面裂缝检测方法
CN114972991B (zh) 一种崩岗的自动识别方法及***
CN112861932B (zh) 轨道板裂缝检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant