WO2016192552A1 - 一种基于网络图片的建成环境景观特征识别方法 - Google Patents

一种基于网络图片的建成环境景观特征识别方法 Download PDF

Info

Publication number
WO2016192552A1
WO2016192552A1 PCT/CN2016/083258 CN2016083258W WO2016192552A1 WO 2016192552 A1 WO2016192552 A1 WO 2016192552A1 CN 2016083258 W CN2016083258 W CN 2016083258W WO 2016192552 A1 WO2016192552 A1 WO 2016192552A1
Authority
WO
WIPO (PCT)
Prior art keywords
shooting
environment
point
visual
target environment
Prior art date
Application number
PCT/CN2016/083258
Other languages
English (en)
French (fr)
Inventor
赵渺希
顾沁
边宇
贾锐澜
吴江月
Original Assignee
华南理工大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 华南理工大学 filed Critical 华南理工大学
Priority to SG11201709813SA priority Critical patent/SG11201709813SA/en
Publication of WO2016192552A1 publication Critical patent/WO2016192552A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]

Definitions

  • the invention relates to a method for identifying a landscape feature of a built environment, in particular to a method for identifying a landscape feature of a built environment based on a network picture, and belongs to the field of urban landscape research in the field of urban planning.
  • Identifying the landscape characteristics of the urban environment is the premise and foundation of urban and rural planning and design, and the people's shooting behavior provides a lot of material for identifying the landscape features of the abbreviated environment. Photographic images for tourism visual research have always been the focus of scholars.
  • Liu Jing uses the film's pictures to study the spatial imagery of many cities.
  • Zhao Yuxi uses Google Images for principal factor analysis and portrays Guangdong 21 The landscape of a city.
  • network pictures for the identification of built environment landscapes in China.
  • the purpose of the present invention is to solve the above drawbacks of the prior art, and to provide a built-in environment landscape feature recognition method based on a network picture, which can perform network visual image analysis on a city built environment landscape, and is reproducible and operable. Sexuality, and the use of network pictures of the photographer's visual analysis and reduction analysis of shooting behavior, timeliness and objectivity.
  • a method for identifying a landscape feature of a built environment based on a network image comprising the following steps:
  • the shooting point, the shooting center point and the shooting line are imported into the analysis platform of ArcGIS, and the visual sensitive area of the landscape network picture is analyzed by ArcGIS software and the sensitivity analysis is performed;
  • step S1 the photographic image library of the target environment and the similar built environment is obtained by using the Baidu image search engine, and specifically includes:
  • Baidu pictures to separately query a number of similar built environment names, and download all the image search results in order, delete the pictures in the image search results that are not related to the similar built environment, and select the first 200 pictures in each picture search result.
  • a total of 1200 images are used as a network photo gallery of similar built environments.
  • step S2 the recording of the shooting standing point, the shooting visual center point, and the shooting line of sight in the photographic shooting behavior is recorded by AutoCAD, and specifically includes:
  • step S3 for the target environment, the shooting standing point, the shooting visual center point, and the shooting line of sight are imported into the analysis platform of ArcGIS, and the landscape is analyzed by using ArcGIS software.
  • the network maps the visually sensitive area and analyzes the sensitivity, including:
  • step S34 the calculation of the shooting stand sensitivity, the shooting visual center point sensitivity, and the shooting line sensitivity are specifically as follows:
  • n is the total number of grid points and b i is the grid point value
  • M i is the standard deviation
  • n is the total number of grid points
  • b i is the grid point value.
  • the sensitivity analysis formula for a certain point is:
  • k i is the sensitivity of a point
  • M i is the standard deviation of the line of sight density
  • b i is the value of the grid point.
  • step S4 the target network and the similar built-in environment network photography picture library are used to record the attributes of the network photography picture elements, including:
  • Each network picture is sequentially numbered, and the visual element is used as an optional element attribute of each numbered picture. If an element appears in the picture, the record is 1; otherwise, it is 0;
  • the target environment picture record is 1 and the similar built environment picture record is 2, and the result is saved as a target environment network photography picture element attribute table and a similar built environment network photography picture element attribute table.
  • step S4 the independent sample T test of the SPSS software is used to filter the visual features of the target environment, including:
  • the SPSS software is used to perform independent sample T-test analysis on the target environment and similar built environment visual elements, and the formula of the independent sample T test is:
  • t k is the T test statistic, with The value of the photographic picture element attribute numbered k in the target environment and similar built environment, respectively, n 1, k and n 2, k are the number of photographic picture samples numbered k in the target environment and similar built environment, S 1, k And S 2,k are the sample variances of the photographic image element attribute values numbered k in the target environment and the similar built environment, respectively;
  • T test statistic t k is the saliency index of each element. If the t k value of an element is greater than 0.1, the element is discarded. If the t k value of an element is not greater than 0.1, the element is retained as the target environment visual feature. The elements and corresponding records of their t k values will result in a target environment visual feature element table;
  • the present invention analyzes the visual characteristics of urban built environmental landscape by analyzing the behavioral process of people in the network media by means of geographic analysis, statistical analysis, correlation analysis and other quantitative analysis methods. Hotspots, statistical comparison of characteristic visual elements in different urban environments, assisting the design and planning of urban landscapes.
  • the invention compensates for the lack of subjectivity and hysteresis in the evaluation and design of the urban built environment landscape by reducing the process of photographing the network photography.
  • the present invention uses a network visual image analysis method for urban built environment landscape, which has reproducibility and operability, and utilizes the visual analysis of the photographer of the network picture and the reduction analysis of the shooting behavior, which is time-sensitive and objective. Sex.
  • FIG. 1 is a flowchart of a method for identifying a landscape feature of a built environment based on a network picture according to Embodiment 1 of the present invention.
  • FIG. 2 is a schematic diagram of a field reduction mode according to Embodiment 1 of the present invention.
  • Fig. 3 is a diagram showing the distribution of density points of the entire shooting shooting point according to the second embodiment of the present invention.
  • Embodiment 4 is a distribution diagram of an integral visual center point according to Embodiment 2 of the present invention.
  • Fig. 5 is a view showing the line-of-sight density distribution of the entire type of shooting according to the second embodiment of the present invention.
  • Fig. 6 is a diagram showing the distribution of the sensitivity of the shooting standing point according to the second embodiment of the present invention.
  • the method for identifying a landscape feature of a built-in environment based on a network picture of the embodiment includes the following steps:
  • the built environment refers to the urban environment that has been built in the city.
  • the target environment refers to the built environment that needs to identify the landscape features.
  • the similar built environment refers to other built environments with the same category, similarity and comparability with the target environment; Similar to the significant test of the built environment and the target environment, the elements with more significant differences in the similar built environment in the target environment can be obtained, which is the characteristic element of the target environment.
  • Open ArcToolbox use the Spatial Analyze tool to perform point density analysis on the shooting standing point and shooting focus, perform line density analysis on the shooting line of sight, and obtain the target environment shooting standing point density value, visual center point density value and shooting.
  • Line of sight density value ;
  • n is the total number of grid points and b i is the grid point value
  • M i is the standard deviation
  • n is the total number of grid points
  • b i is the grid point value.
  • the sensitivity analysis formula for a certain point is:
  • k i is the sensitivity of a point
  • M i is the standard deviation of the line of sight density
  • b i is the value of the grid point.
  • the ArcGIS software is divided into three levels of visual sensitivity for shooting stand sensitivity, shooting visual center point sensitivity, and shooting line of sight sensitivity from high to low.
  • Each network picture is numbered sequentially, and the visual element is used as an optional feature attribute of each numbered picture. If an element appears in the picture, the record is 1; otherwise, it is 0;
  • t k is the T test statistic, with The value of the photographic picture element attribute numbered k in the target environment and similar built environment, respectively, n 1, k and n 2, k are the number of photographic picture samples numbered k in the target environment and similar built environment, S 1, k And S 2,k are the sample variances of the photographic image element attribute values numbered k in the target environment and the similar built environment, respectively;
  • the T test statistic t k is used as the saliency indicator of each element. If an element t k value is greater than 0.1, the element is discarded. If an element t k value is not greater than 0.1, the element is reserved as the target environment.
  • the visual characteristic element correspondingly records the t k value of an element, and the target environment visual characteristic element table is obtained;
  • the visual characteristics of the target environment landscape elements are graded, so as to screen out the visual characteristics of the target environment;
  • the attribute element attribute table is established, and the line is defined as the feature element.
  • the column is defined as the shooting standing point, the visual center point, the shooting line of sight area, the identification of the importance of the element, and the optimization of the landscape pattern of the target environment. .
  • Yuyinshan Fangjing District in Panyu District, Guangzhou is selected to provide a comprehensive evaluation method for scenic visual information based on network pictures. Yuyinshan Fangjing District is located in the north street of the southeast corner of Nancun Town, Panyu District, Guangzhou City, Guangdongzhou. Lingnan Garden.
  • Open ArcToolbox use the Spatial Analyze tool to perform point density analysis on the shooting stand and shooting focus, perform line density analysis on the line of sight, and obtain the standing point density value, visual center point density value and shooting of Yu Yin Shan room respectively.
  • n is the total number of grid points
  • b i is the grid point value
  • the average point density is 31.99
  • M i is the standard deviation
  • n is the total number of grid points
  • b i is the grid point value.
  • M i is 103.58;
  • the sensitivity analysis formula for a certain point is:
  • k i is the sensitivity of a point
  • M i is the standard deviation of the line of sight density
  • b i is the value of the grid point.
  • Each network picture is numbered sequentially, and the visual element is used as an optional feature attribute of each numbered picture. If an element appears in the picture, the record is 1; otherwise, it is 0, as shown in Table 1 below;
  • t k is the T test statistic, which is the saliency indicator of each element.
  • n 1,k and n 2,k are the number of photographic picture samples numbered k in Yu Yin Shan Fang and the city park respectively
  • S 1,k and S 2, k are the sample variances of the photographic image element attribute values numbered k in the Yu Yin Shan Fang and the city park respectively; the independent sample T test results are shown in Table 2 below;
  • the elemental significance index t k can be obtained from the independent sample T test result table. If an element t k value is greater than 0.2, the element is discarded. If an element t k value is not greater than 0.2, the element is reserved as Yu Yinshan. The visual characteristics of the room and the corresponding t k value will be recorded, and the visual characteristic elements of the Yu Yin Shan Fang will be obtained.
  • the visual characteristic degree is classified on the characteristic elements of Yu Yin Shan Fang.
  • p i of an element if p i ⁇ [0, 0.005) is a level 1 visual feature, if p i ⁇ [0.005,0.01) is a level 2 visual feature, if p i ⁇ [0.01,0.1] is a level 3 visual feature, as shown in Table 3 below;
  • Visual element p value Visual grading plant 0.000 1 railing 0.000 1 window 0.000 1 pool 0.001 1 roof 0.005 2 door 0.000 1 pavilion 0.000 1 mural 0.000 1 rockery 0.000 1 sculpture 0.000 1 Furniture 0.000 1 Calligraphy 0.006 2 bridge 0.001 1 Corridor 0.000 1
  • a feature element attribute table is established, and the line is defined as a feature element.
  • the column is defined as a shooting stand point, a visual center point, a shooting line of sight area, and the importance of the element is determined to guide the target environment, that is, Yu Yin Shan Fang Landscape pattern optimization;
  • the appearance of lanterns in the room of Yu Yinshan is relatively high. Suggestions are given on the hanging position of the lanterns in the festival day. For example, by identifying the line of sight, suggestions are given for the potting of the garden; for example, by shooting the standing point The identification of the area optimizes the design of the promenade and the grandstand in the original garden, and rationally guides the flow of people.
  • the present invention is based on the objective urban built-up area geographic data and network open data, and analyzes the urban built environment by analyzing the behavioral process of the people in the network media by means of geographic analysis, statistical analysis, correlation analysis and other quantitative analysis methods.
  • Visual hotspots of the landscape statistical comparison of characteristic visual elements in different urban environments, assisting the design and planning of urban landscapes.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)

Abstract

公开了一种基于网络图片的建成环境景观特征识别方法,包括:利用百度图片搜索引擎获取目标环境和类似建成环境的摄影图片库;记录目标环境中摄影拍摄行为中的拍摄站立点、拍摄视觉中心点和拍摄视线,并导入ArcGIS的分析平台,利用ArcGIS软件分析目标环境在网络图片中的视觉敏感区并对敏感度分析;利用目标环境和类似建成环境网络摄影图片库,记录两者网络摄影图片要素属性,利用独立样本T检验筛选出目标环境视觉特色要素;对目标建成环境的景观特征进行识别和分析。由此可以对城市建成环境景观进行视觉形象分析,具有可复制性和可操作性,并且利用网络图片的拍摄者视觉分析和拍摄行为的还原分析,具有时效性和客观性。

Description

一种基于网络图片的建成环境景观特征识别方法 技术领域
本发明涉及一种建成环境景观特征识别方法,尤其是一种基于网络图片的建成环境景观特征识别方法,属于城市规划领域中的城市景观研究领域。
背景技术
辨识城市环境的景观特征是城乡规划与设计的前提和基础,而民众的拍摄行为为识别简称环境的景观特征提供了大量素材。摄影图片进行旅游地视觉研究一直是学者关注的热点。
现阶段,有不少学者通过媒介表达研究城市或者街区的视觉意向,如刘敬凭借电影的画面来研究多个城市的空间意象,如赵渺希利用谷歌图片进行主因子分析,刻画了广东21个城市的景观风貌。但目前国内尚无利用网络图片进行建成环境景观辨识的相关研究。
杨俊宴、史宜在申请号为201310097613.7的发明专利申请中公开了一种城市天际轮廓线立面正射影像图的快速获取和测量方法,但是并没有对图像的内容和拍摄行为信息进行解读。
发明内容
本发明的目的是为了解决上述现有技术的缺陷,提供了一种基于网络图片的建成环境景观特征识别方法,该方法可以对城市建成环境景观进行网络视觉形象分析,具有可复制性和可操作性,并利用网络图片的拍摄者视觉分析和拍摄行为的还原分析,具有时效性和客观性。
本发明的目的可以通过采取如下技术方案达到:
一种基于网络图片的建成环境景观特征识别方法,包括以下步骤:
S1、利用百度图片搜索引擎获取目标环境和类似建成环境的摄影图片库;
S2、针对目标环境,使用AutoCAD记录摄影拍摄行为中的拍摄站立点、 拍摄视觉中心点和拍摄视线进行记录;
S3、针对目标环境,将拍摄站立点、拍摄视觉中心点和拍摄视线导入ArcGIS的分析平台,利用ArcGIS软件分析景观地网络图片视觉敏感区并对敏感度分析;
S4、利用目标环境和类似建成环境网络摄影图片库,记录两者网络摄影图片要素属性,利用SPSS软件的独立样本T检验筛选出目标环境视觉特色要素;
S5、针对目标环境和类似建成环境,综合以上视觉信息分布情况,建立特征要素属性表,将行定义为特征要素,将列定义为拍摄站立点、视觉中心点、拍摄视线区域,进行要素重要性的判别,指导目标环境的景观格局优化。
作为一种实施方案,步骤S1中,所述利用百度图片搜索引擎获取目标环境和类似建成环境的摄影图片库,具体包括:
S11、利用百度图片查询目标环境名称,并按顺序下载所有图片搜索结果,将图片搜索结果中与目标环境无关的图片删除,选取图片搜索结果中前1200张图片,作为目标环境网络摄影图片库;
S12、利用百度图片分别查询若干类似建成环境名称,并分别按顺序下载所有图片搜索结果,将图片搜索结果中与各类似建成环境无关的图片删除,分别选取各个图片搜索结果中前200张图片,共1200张图片作为类似建成环境网络摄影图片库。
作为一种实施方案,步骤S2中,所述使用AutoCAD记录摄影拍摄行为中的拍摄站立点、拍摄视觉中心点和拍摄视线进行记录,具体包括:
S21、将目标环境网络摄影图片库按照拍摄的地理位置分类;
S22、在目标环境现场观察,对照目标环境网络摄影图片库中的每一张图片,以目标环境平面图作为工作底图,将每一张图片的对角线交点拍摄位置作为视觉中心点,通过现场还原的方式,在CAD平面图中分别将拍摄站立点、视觉中心点和拍摄视线画在CAD工作底图上。
作为一种实施方案,步骤S3中,针对目标环境,将拍摄站立点、拍摄视觉中心点和拍摄视线导入ArcGIS的分析平台,利用ArcGIS软件分析景观 地网络图片视觉敏感区并对敏感度分析,具体包括:
S31、将拍摄站立点、视觉中心点和拍摄视线的CAD数据分别导入ArcGIS软件中进行GIS空间落位与坐标纠偏;
S32、打开ArcGIS软件中的ArcToolbox,利用Spatial Analyze工具对拍摄站立点和视觉中心点进行点密度分析操作,对拍摄视线进行线密度分析操作,分别得到目标环境拍摄站立点密度值、视觉中心点密度值和拍摄视线密度值;
S33、利用INT工具使目标环境拍摄站立点密度值、视觉中心点密度值和拍摄视线密度值变为整形数据,得到整型拍摄站立点密度分布、整型视觉中心点密度分布和整型拍摄视线线密度分布;
S34、利用ArcGIS软件计算拍摄站立点敏感度、拍摄视觉中心点敏感度和拍摄视线敏感度;
S35、利用ArcGIS软件对拍摄站立点敏感度、拍摄视觉中心点敏感度和拍摄视线敏感度由高到低分为三个级别的视觉敏感度。
作为一种实施方案,步骤S34中,所述拍摄站立点敏感度、拍摄视觉中心点敏感度和拍摄视线敏感度的计算,具体为:
1)利用处理过的整型拍摄站立点密度值,ArcGIS属性表中新建字段,计算点密度平均值,点密度平均值
Figure PCTCN2016083258-appb-000001
的计算公式为:
Figure PCTCN2016083258-appb-000002
其中,n为栅格点的总数,bi为栅格点数值;
2)将点密度值的计算结果导出到Excel,在Excel中计算标准差,标准差的计算公式为:
Figure PCTCN2016083258-appb-000003
其中,Mi为标准差,n为栅格点的总数,bi为栅格点数值,
Figure PCTCN2016083258-appb-000004
为点密度平均值;
3)利用密度分析与栅格图层叠加分析技术,进行拍摄站立点敏感性分析,对于某一点的敏感度分析计算公式为:
Figure PCTCN2016083258-appb-000005
其中,ki为某点的敏感度,Mi为拍摄视线密度标准差,bi为栅格点数值,
Figure PCTCN2016083258-appb-000006
为拍摄视线密度平均值;
4)新建矢量格式数据,新建字段,将点平均密度值赋予到属性表当中;
5)利用根据字段值将矢量数据转换为栅格数据工具,将上述矢量数据分别转为栅格数据,得到代表点平均密度值栅格图层;
6)根据敏感度计算公式,利用ArcGIS中Map Algebra工具进行地图叠加计算,得到拍摄站立点敏感度分布图;
7)重复上述步骤1)至步骤6)的方法,得到拍摄视觉中心点敏感度分布图和拍摄视线敏感度分布图。
作为一种实施方案,步骤S4中,所述利用目标环境和类似建成环境网络摄影图片库,记录两者网络摄影图片要素属性,具体包括:
S41、根据目标环境网络摄影图片库和类似建成环境网络摄影图片库,将所有图片中的视觉要素记录在Excel表格中;
S42、对每张网络图片依次编号,将视觉要素作为每张编号图片的备选要素属性,若图片中出现某要素则记录为1,否则为0;
S43、添加图片归属属性,目标环境图片记录为1和类似建成环境图片记录为2,结果保存为目标环境网络摄影图片要素属性表和类似建成环境网络摄影图片要素属性表。
作为一种实施方案,步骤S4中,所述用SPSS软件的独立样本T检验筛选出目标环境视觉特色要素,具体包括:
S44、根据目标环境网络摄影图片要素属性表和类似建成环境网络摄影图片要素属性表,利用SPSS软件对目标环境和类似建成环境视觉要素进行独立样本T检验分析,独立样本T检验的公式为:
Figure PCTCN2016083258-appb-000007
其中,tk为T检验统计量,
Figure PCTCN2016083258-appb-000008
Figure PCTCN2016083258-appb-000009
分别为目标环境和类似建成环境中编号为k的摄影图片要素属性值,n1,k和n2,k分别为目标环境和类似建成环境中编号为k的摄影图片样本数量,S1,k和S2,k分别为目标环境和类似建成环境中编号为k的摄影图片要素属性值的样本方差;
S45、T检验统计量tk即为各要素显著性指标,若某元素tk值大于0.1,则舍去该元素,若某元素tk值不大于0.1,则保留该元素作目标环境视觉特色要素并对应记录其tk值,将得到目标环境视觉特色要素表;
S46、利用目标环境视觉特色要素表,对目标环境景观特色元素进行视觉特色度分级,从而筛选出目标环境视觉特色要素。
本发明相对于现有技术具有如下的有益效果:
1、本发明以客观的城市建成区地理数据和网络开放数据为基础,借助地理分析、统计分析、相关性分析等计量分析方法,通过分析网络媒介中民众拍摄行为过程分析城市建成环境景观的视觉热点,统计对比不同城市环境中特征视觉元素,辅助城市景观的设计与规划。
2、本发明通过还原网络摄影图片拍摄过程,弥补了城市建成环境景观特征评估和设计中的主观性及滞后性的不足。
3、本发明使用了一种针对城市建成环境景观的网络视觉形象分析方法,具有可复制性和可操作性,并利用网络图片的拍摄者视觉分析和拍摄行为的还原分析,具有时效性和客观性。
附图说明
图1为本发明实施例1的基于网络图片的建成环境景观特征识别方法的流程图。
图2为本发明实施例1的现场还原方式示意图。
图3为本发明实施例2的整型拍摄站立点密度分布图。
图4为本发明实施例2的整型视觉中心点分布图。
图5为本发明实施例2的整型拍摄视线密度分布图。
图6为本发明实施例2的拍摄站立点敏感度分布图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例1:
如图1所示,本实施例的基于网络图片的建成环境景观特征识别方法,包括以下步骤:
1)目标环境及类似建成环境网络摄影图片库的获取
建成环境是指城市中已经建设完成的城市环境,目标环境是指需要进行景观特征识别的建成环境,类似建成环境是指与目标环境同类别、具有相似性和可比较性的其他建成环境;利用类似建成环境与目标环境的显著性检验,可得到目标环境中较类似建成环境差异差异较为显著的元素,即为目标环境的特色元素。
1.1)利用百度图片查询目标环境名称,并按顺序下载所有图片搜索结果,将图片搜索结果中与目标环境无关的图片删除,选取图片搜索结果中前1200张图片,作为目标环境网络摄影图片库;
1.1)利用百度图片分别查询若干类似建成环境名称,并分别按顺序下载所有图片搜索结果,将图片搜索结果中与各类似建成环境无关的图片删除,分别选取各个图片搜索结果中前200张图片,共1200张图片作为类似建成环境网络摄影图片库;
2)旅游地视觉敏感区域识别
2.1)摄影图片拍摄行为的目标环境现场还原
2.1.1)将目标环境网络摄影图片库按照拍摄的地理位置分类;
2.1.2)目标环境网络摄影图片的拍摄信息记录
在目标环境现场观察,对照目标环境网络摄影图片库中的每一张图片,以目标环境平面图作为工作底图,将每一张图片的对角线交点拍摄位置作为视觉中心点,通过如图2所示的现场还原方式,在CAD平面图中分别 将拍摄点、视觉中心点和拍摄路线(即拍摄点与视觉中心点之间的连线)画在CAD工作底图上;
2.2)视觉敏感区域的识别
2.2.1)拍摄行为还原数据的处理
2.2.1.1)将拍摄站立点、拍摄焦点和拍摄路线的CAD数据分别导入ArcGIS软件中进行GIS空间落位与坐标纠偏;
2.2.1.2)打开ArcToolbox,利用Spatial Analyze工具对拍摄站立点和拍摄焦点进行点密度分析操作,对拍摄视线进行线密度分析操作,分别得到目标环境拍摄站立点密度值、视觉中心点密度值和拍摄视线密度值;
2.2.1.3)利用INT工具使其变为整形数据,得到整型拍摄站立点密度分布、整型视觉中心点密度分布和整型拍摄视线线密度分布;
2.2.2)视觉敏感度的计算
2.2.2.1)利用处理过的整型拍摄站立点密度值,ArcGIS属性表中新建字段,计算点密度平均值,点密度平均值
Figure PCTCN2016083258-appb-000010
的计算公式为:
Figure PCTCN2016083258-appb-000011
其中,n为栅格点的总数,bi为栅格点数值;
2.2.2.2)将点密度值的计算结果导出到Excel,在Excel中计算标准差,标准差的计算公式为:
Figure PCTCN2016083258-appb-000012
其中,Mi为标准差,n为栅格点的总数,bi为栅格点数值,
Figure PCTCN2016083258-appb-000013
为点密度平均值;
2.2.2.3)利用密度分析与栅格图层叠加分析技术,进行拍摄站立点敏感性分析,对于某一点的敏感度分析计算公式为:
Figure PCTCN2016083258-appb-000014
其中,ki为某点的敏感度,Mi为拍摄视线密度标准差,bi为栅格点数值,
Figure PCTCN2016083258-appb-000015
为拍摄视线密度平均值;
2.2.2.4)新建矢量格式数据,新建字段,将点平均密度值赋予到属性表当中;
2.2.2.5)利用根据字段值将矢量数据转换为栅格数据工具,将上述矢量数据分别转为栅格数据,得到代表点平均密度值栅格图层;
2.2.2.6)根据敏感度计算公式,利用ArcGIS中Map Algebra工具进行地图叠加计算,得到拍摄站立点敏感度分布图;
2.2.2.7)拍摄视觉中心点敏感度分布图和拍摄视线敏感度分布图数据制作方法与上述一致,重复上述步骤可以得到拍摄视觉中心点敏感度分布图和拍摄视线敏感度分布图;
2.2.3)视觉敏感度分级
利用ArcGIS软件对拍摄站立点敏感度、拍摄视觉中心点敏感度和拍摄视线敏感度由高到低分为三个级别的视觉敏感度。
3)目标环境景观视觉特色要素构成分析
3.1)目标环境和类似建成环境图片视觉要素的确定
根据目标环境网络摄影图片库和类似建成环境网络摄影图片库,将所有图片中出现的植物、栏杆、窗户、水池、屋顶等作为视觉要素并记录在Excel表格中;
3.2)目标环境和类似建成环境网络摄影图片要素属性的判别
3.2.1)对每张网络图片依次编号,将视觉要素作为每张编号图片的备选要素属性,若图片中出现某要素则记录为1,否则为0;
3.2.2)添加图片归属属性,目标环境图片记录为1和类似建成环境图片记录为2,结果保存为目标环境网络摄影图片要素属性表和类似建成环境网络摄影图片要素属性表;
3.3)目标环境景观视觉特色要素的显著性判别
3.3.1)根据目标环境网络摄影图片要素属性表和类似建成环境网络摄影图片要素属性表,利用SPSS软件对目标环境和类似建成环境视觉要素进 行独立样本T检验分析,独立样本T检验的公式为:
Figure PCTCN2016083258-appb-000016
其中,tk为T检验统计量,
Figure PCTCN2016083258-appb-000017
Figure PCTCN2016083258-appb-000018
分别为目标环境和类似建成环境中编号为k的摄影图片要素属性值,n1,k和n2,k分别为目标环境和类似建成环境中编号为k的摄影图片样本数量,S1,k和S2,k分别为目标环境和类似建成环境中编号为k的摄影图片要素属性值的样本方差;
3.3.2)T检验统计量tk即作为各要素显著性指标,若某元素tk值大于0.1,则舍去该元素,若某元素tk值不大于0.1,则保留该元素作目标环境视觉特色要素并对应记录其某元素tk值,将得到目标环境视觉特色要素表;
3.4)目标环境景观视觉特色要素的视觉特色分级
利用目标环境视觉特色要素表,对目标环境景观特色元素进行视觉特色度分级,从而筛选出目标环境视觉特色要素;
4)城市建成区域景观特征的综合评价
综合以上视觉信息分布情况,建立特征要素属性表,将行定义为特征要素,将列定义为拍摄站立点、视觉中心点、拍摄视线区域,进行要素重要性的判别,指导目标环境的景观格局优化。
实施例2:
本实施例是一个应用实例,选取广州番禺区余荫山房景区,提供了一种基于网络图片的景区视觉信息综合评价方法,余荫山房景区位于广东省广州市番禺区南村镇东南角北大街,是典型的岭南园林。
1)余荫山房网络摄影图片库的获取
1.1)利用百度图片查询关键词“余荫山房”,并按顺序下载所有图片搜索结果,将图片搜索结果中与余荫山房无关的图片删除,选取图片搜索结果中前1200张图片,作为余荫山房网络摄影图片库;
1.2)利用百度图片分别查询广州类似建成环境关键词,本例选取“越秀公园”、“天河公园”、“荔湾湖公园”、“大夫山森林公园”、“东山湖公园”、“人民公园”,并分别按顺序下载所有图片搜索结果。将图片搜索结果中 与公园无关的图片删除,分别选取各公园图片搜索结果中前200张图片,共1200张图片作为全市公园网络摄影图片库;
2)余荫山房视觉敏感区域识别
2.1)摄影图片拍摄行为的余荫山房现场还原
2.1.1)将余荫山房网络摄影图片库按照拍摄的地理位置分类
2.1.2)采用3名规划专业人员在余荫山房现场观察,对照余荫山房网络摄影图片库中的每一张图片,以描画的余荫山房景区CAD地图作为工作底图,利用AutoCAD软件,建立拍摄站立点、视觉中心点、拍摄视线三个图层;在拍摄站立点图层上用point命令标注每一张图片的拍摄站立点在视觉中心点图层上用point命令标注每一张图片的对角线交点拍摄位置作为拍摄焦点,在视觉中心点图层上用line命令连接拍摄站立点和拍摄焦点作为拍摄视线;
2.2)视觉敏感区域的识别
2.3.1)拍摄行为还原数据的处理
2.3.1.1)将拍摄站立点、拍摄焦点和拍摄视线的CAD数据分别导入ArcGIS软件中进行GIS空间落位与坐标纠偏;
2.3.1.2)打开ArcToolbox,利用Spatial Analyze工具对拍摄站立点和拍摄焦点进行点密度分析操作,对拍摄视线进行线密度分析操作,分别得到余荫山房拍摄站立点密度值、视觉中心点密度值和拍摄视线密度值;
2.3.1.3)利用INT工具使其变为整形数据,得到整型余荫山房整型拍摄站立点点密度分布、整型视觉中心点密度分布和整型拍摄视线密度分布,分别如图3、图4和图5所示;
2.3.2)视觉敏感度的计算
2.3.2.1)利用处理过的整型拍摄站立点点密度值,ArcGIS属性表中新建字段,计算点密度平均值,点密度平均值的计算公式为:
Figure PCTCN2016083258-appb-000019
其中,n为栅格点的总数,bi为栅格点数值,得到点密度平均值为31.99;
2.3.2.2)将点密度值的计算结果导出到Excel,在Excel中计算标准差,标准差的计算公式为:
Figure PCTCN2016083258-appb-000020
其中,Mi为标准差,n为栅格点的总数,bi为栅格点数值,
Figure PCTCN2016083258-appb-000021
为点密度平均值,得到标准差Mi为103.58;
2.2.2.3)利用密度分析与栅格图层叠加分析技术,进行拍摄站立点敏感性分析,对于某一点的敏感度分析计算公式为:
Figure PCTCN2016083258-appb-000022
其中,ki为某点的敏感度,Mi为拍摄视线密度标准差,bi为栅格点数值,
Figure PCTCN2016083258-appb-000023
为拍摄视线密度平均值;
2.2.2.4)新建矢量格式数据,新建字段,将点平均密度值赋予到属性表当中;
2.2.2.5)利用根据字段值将矢量数据转换为栅格数据工具,将上述矢量数据分别转为栅格数据,得到代表点平均密度值栅格图层;
2.2.2.6)根据敏感度计算公式,利用ArcGIS中Map Algebra工具进行地图叠加计算,得到拍摄站立点敏感度分布图,如图6所示;
2.2.2.7)拍摄视觉中心点敏感度分布图和拍摄视线敏感度分布图数据制作方法与上述一致,重复上述步骤可以得到拍摄视觉中心点敏感度分布图和拍摄视线敏感度分布图;
2.2.3)视觉敏感度分级
利用ArcGIS软件对拍摄站立点敏感度、拍摄视觉中心点敏感度及视线敏感度进行分级:若ki∈[0,5)则为1级视觉敏感度,若ki∈[5,9)则为2级视觉敏感度,ki∈[9,13]则为3级视觉敏感度。
3)余荫山房视觉特色要素构成分析
3.1)余荫山房和全市公园的图片的视觉要素的确定
根据全市公园网络摄影图片库和余荫山房网络摄影图片库,将所有图片中出现的植物、栏杆、窗户、水池、屋顶、门、亭子、壁画、人、假山、雕塑、家具、字画、桥、连廊、路牌、瀑布、塔、灯笼、鱼、楼梯、牌坊作为视觉要素并记录在Excel表格中;
3.2)判别余荫山房和全市公园网络摄影图片要素属性
3.2.1)对每张网络图片依次编号,将视觉要素作为每张编号图片的备选要素属性,若图片中出现某要素则记录为1,否则为0,如下表1所示;
Figure PCTCN2016083258-appb-000024
Figure PCTCN2016083258-appb-000025
表1 网络图片要素属性表
3.2.2)添加图片归属属性,余荫山房图片记录为1,全市公园图片记录为2,将结果保存为余荫山房和全市公园网络摄影图片要素属性表;
3.3)余荫山房视觉特色要素的显著性判别
3.3.1)根据余荫山房和全市公园网络摄影图片要素属性表,利用SPSS软件对余荫山房和全市公园网络摄影图片要素进行独立样本T检验分析,独立样本T检验的公式为:
Figure PCTCN2016083258-appb-000026
其中,tk为T检验统计量,即为各要素显著性指标,
Figure PCTCN2016083258-appb-000027
Figure PCTCN2016083258-appb-000028
分别为余荫山房和全市公园中编号为k的摄影图片要素属性值,n1,k和n2,k分别为余荫山房和全市公园中编号为k的摄影图片样本数量,S1,k和S2,k分别为分别为余荫山房和全市公园中编号为k的摄影图片要素属性值的样本方差;独立样本T检验结果,如下表2所示;
Figure PCTCN2016083258-appb-000029
Figure PCTCN2016083258-appb-000030
表2 独立样本T检验结果表
3.3.2)由独立样本T检验结果表可以得到各要素显著性指标tk,若某元素tk值大于0.2则舍去该元素,若某元素tk值不大于0.2则保留该元素作余荫山房视觉特色要素并对应记录其tk值,将得到余荫山房视觉特色要素表。
3.4)余荫山房视觉特色要素的视觉特色分级
利用余荫山房视觉特色要素表,对余荫山房是觉特色元素进行视觉特色度分级,对于某元素的显著性指标pi,若pi∈[0,0.005)则为1级视觉特色,若pi∈[0.005,0.01)则为2级视觉特色,若pi∈[0.01,0.1]则为3级视觉特色,如下表3所示;
视觉要素 p值 视觉分级
植物 0.000 1
栏杆 0.000 1
0.000 1
水池 0.001 1
屋顶 0.005 2
0.000 1
亭子 0.000 1
壁画 0.000 1
假山 0.000 1
雕塑 0.000 1
家具 0.000 1
字画 0.006 2
0.001 1
连廊 0.000 1
瀑布 0.010 3
灯笼 0.000 1
0.000 1
楼梯 0.023 3
牌坊 0.105 3
表3 视觉特色要素的视觉特色分级表
4)旅游地视觉信息综合评价
综合以上视觉信息分布情况,建立特征要素属性表,将行定义为特征要素,将列定义为拍摄站立点、视觉中心点、拍摄视线区域,进行要素重要性的判别,指导目标环境,即余荫山房的景观格局优化;
余荫山房中灯笼的出现频次较高,在节庆日课对灯笼的悬挂位置给出建议;又如,通过对视线区域的识别,对园林的盆栽摆放给出建议;再如,通过拍摄站立点区域的识别,优化原来园林中长廊和看台的设计,合理引导人流组织。
综上所述,本发明以客观的城市建成区地理数据和网络开放数据为基础,借助地理分析、统计分析、相关性分析等计量分析方法,通过分析网络媒介中民众拍摄行为过程分析城市建成环境景观的视觉热点,统计对比不同城市环境中特征视觉元素,辅助城市景观的设计与规划。
以上所述,仅为本发明专利优选的实施例,但本发明专利的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明专利所公开的范围内,根据本发明专利的技术方案及其发明专利构思加以等同替换或改变,都属于本发明专利的保护范围。

Claims (7)

  1. 一种基于网络图片的建成环境景观特征识别方法,其特征在于:所述方法包括以下步骤:
    S1、利用百度图片搜索引擎获取目标环境和类似建成环境的摄影图片库;
    S2、针对目标环境,使用AutoCAD记录摄影拍摄行为中的拍摄站立点、拍摄视觉中心点和拍摄视线进行记录;
    S3、针对目标环境,将拍摄站立点、拍摄视觉中心点和拍摄视线导入ArcGIS的分析平台,利用ArcGIS软件分析景观地网络图片视觉敏感区并对敏感度分析;
    S4、利用目标环境和类似建成环境网络摄影图片库,记录两者网络摄影图片要素属性,利用SPSS软件的独立样本T检验筛选出目标环境视觉特色要素;
    S5、针对目标环境和类似建成环境,综合以上视觉信息分布情况,建立特征要素属性表,将行定义为特征要素,将列定义为拍摄站立点、视觉中心点、拍摄视线区域,进行要素重要性的判别,指导目标环境的景观格局优化。
  2. 根据权利要求1所述的一种基于网络图片的建成环境景观特征识别方法,其特征在于:步骤S1中,所述利用百度图片搜索引擎获取目标环境和类似建成环境的摄影图片库,具体包括:
    S11、利用百度图片查询目标环境名称,并按顺序下载所有图片搜索结果,将图片搜索结果中与目标环境无关的图片删除,选取图片搜索结果中前1200张图片,作为目标环境网络摄影图片库;
    S12、利用百度图片分别查询若干类似建成环境名称,并分别按顺序下载所有图片搜索结果,将图片搜索结果中与各类似建成环境无关的图片删除,分别选取各个图片搜索结果中前200张图片,共1200张图片作为类似建成环境网络摄影图片库。
  3. 根据权利要求1所述的一种基于网络图片的建成环境景观特征识别 方法,其特征在于:步骤S2中,所述使用AutoCAD记录摄影拍摄行为中的拍摄站立点、拍摄视觉中心点和拍摄视线进行记录,具体包括:
    S21、将目标环境网络摄影图片库按照拍摄的地理位置分类;
    S22、在目标环境现场观察,对照目标环境网络摄影图片库中的每一张图片,以目标环境平面图作为工作底图,将每一张图片的对角线交点拍摄位置作为视觉中心点,通过现场还原的方式,在CAD平面图中分别将拍摄站立点、视觉中心点和拍摄视线画在CAD工作底图上。
  4. 根据权利要求3所述的一种基于网络图片的建成环境景观特征识别方法,其特征在于:步骤S3中,针对目标环境,将拍摄站立点、拍摄视觉中心点和拍摄视线导入ArcGIS的分析平台,利用ArcGIS软件分析景观地网络图片视觉敏感区并对敏感度分析,具体包括:
    S31、将拍摄站立点、视觉中心点和拍摄视线的CAD数据分别导入ArcGIS软件中进行GIS空间落位与坐标纠偏;
    S32、打开ArcGIS软件中的ArcToolbox,利用Spatial Analyze工具对拍摄站立点和视觉中心点进行点密度分析操作,对拍摄视线进行线密度分析操作,分别得到目标环境拍摄站立点密度值、视觉中心点密度值和拍摄视线密度值;
    S33、利用INT工具使目标环境拍摄站立点密度值、视觉中心点密度值和拍摄视线密度值变为整形数据,得到整型拍摄站立点密度分布、整型视觉中心点密度分布和整型拍摄视线线密度分布;
    S34、利用ArcGIS软件计算拍摄站立点敏感度、拍摄视觉中心点敏感度和拍摄视线敏感度;
    S35、利用ArcGIS软件对拍摄站立点敏感度、拍摄视觉中心点敏感度和拍摄视线敏感度由高到低分为三个级别的视觉敏感度。
  5. 根据权利要求4所述的一种基于网络图片的建成环境景观特征识别方法,其特征在于:步骤S34中,所述拍摄站立点敏感度、拍摄视觉中心点敏感度和拍摄视线敏感度的计算,具体为:
    1)利用处理过的整型拍摄站立点密度值,ArcGIS属性表中新建字段,计算点密度平均值,点密度平均值
    Figure PCTCN2016083258-appb-100001
    的计算公式为:
    Figure PCTCN2016083258-appb-100002
    其中,n为栅格点的总数,bi为栅格点数值;
    2)将点密度值的计算结果导出到Excel,在Excel中计算标准差,标准差的计算公式为:
    Figure PCTCN2016083258-appb-100003
    其中,Mi为标准差,n为栅格点的总数,bi为栅格点数值,
    Figure PCTCN2016083258-appb-100004
    为点密度平均值;
    3)利用密度分析与栅格图层叠加分析技术,进行拍摄站立点敏感性分析,对于某一点的敏感度分析计算公式为:
    Figure PCTCN2016083258-appb-100005
    其中,ki为某点的敏感度,Mi为拍摄视线密度标准差,bi为栅格点数值,
    Figure PCTCN2016083258-appb-100006
    为拍摄视线密度平均值;
    4)新建矢量格式数据,新建字段,将点平均密度值赋予到属性表当中;
    5)利用根据字段值将矢量数据转换为栅格数据工具,将上述矢量数据分别转为栅格数据,得到代表点平均密度值栅格图层;
    6)根据敏感度计算公式,利用ArcGIS中Map Algebra工具进行地图叠加计算,得到拍摄站立点敏感度分布图;
    7)重复上述步骤1)至步骤6)的方法,得到拍摄视觉中心点敏感度分布图和拍摄视线敏感度分布图。
  6. 根据权利要求1所述的一种基于网络图片的建成环境景观特征识别方法,其特征在于:步骤S4中,所述利用目标环境和类似建成环境网络摄影图片库,记录两者网络摄影图片要素属性,具体包括:
    S41、根据目标环境网络摄影图片库和类似建成环境网络摄影图片库, 将所有图片中的视觉要素记录在Excel表格中;
    S42、对每张网络图片依次编号,将视觉要素作为每张编号图片的备选要素属性,若图片中出现某要素则记录为1,否则为0;
    S43、添加图片归属属性,目标环境图片记录为1和类似建成环境图片记录为2,结果保存为目标环境网络摄影图片要素属性表和类似建成环境网络摄影图片要素属性表。
  7. 根据权利要求6所述的一种基于网络图片的建成环境景观特征识别方法,其特征在于:步骤S4中,所述用SPSS软件的独立样本T检验筛选出目标环境视觉特色要素,具体包括:
    S44、根据目标环境网络摄影图片要素属性表和类似建成环境网络摄影图片要素属性表,利用SPSS软件对目标环境和类似建成环境视觉要素进行独立样本T检验分析,独立样本T检验的公式为:
    Figure PCTCN2016083258-appb-100007
    其中,tk为T检验统计量,
    Figure PCTCN2016083258-appb-100008
    Figure PCTCN2016083258-appb-100009
    分别为目标环境和类似建成环境中编号为k的摄影图片要素属性值,n1,k和n2,k分别为目标环境和类似建成环境中编号为k的摄影图片样本数量,S1,k和S2,k分别为目标环境和类似建成环境中编号为k的摄影图片要素属性值的样本方差;
    S45、T检验统计量tk即为各要素显著性指标,若某元素tk值大于0.1,则舍去该元素,若某元素tk值不大于0.1,则保留该元素作目标环境视觉特色要素并对应记录其tk值,将得到目标环境视觉特色要素表;
    S46、利用目标环境视觉特色要素表,对目标环境景观特色元素进行视觉特色度分级,从而筛选出目标环境视觉特色要素。
PCT/CN2016/083258 2015-05-29 2016-05-25 一种基于网络图片的建成环境景观特征识别方法 WO2016192552A1 (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
SG11201709813SA SG11201709813SA (en) 2015-05-29 2016-05-25 Built environment landscape characteristic recognition method based on network picture

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201510288892.4 2015-05-29
CN201510288892.4A CN104933229B (zh) 2015-05-29 2015-05-29 一种基于网络图片的建成环境景观特征识别方法

Publications (1)

Publication Number Publication Date
WO2016192552A1 true WO2016192552A1 (zh) 2016-12-08

Family

ID=54120395

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2016/083258 WO2016192552A1 (zh) 2015-05-29 2016-05-25 一种基于网络图片的建成环境景观特征识别方法

Country Status (3)

Country Link
CN (1) CN104933229B (zh)
SG (1) SG11201709813SA (zh)
WO (1) WO2016192552A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110175215A (zh) * 2019-04-29 2019-08-27 河南大学 一种划分地理过渡带的方法
CN114626966A (zh) * 2022-03-18 2022-06-14 杭州师范大学 一种基于景观格局量化城市大型蓝绿空间降温规模的方法
WO2024021359A1 (zh) * 2022-07-27 2024-02-01 东南大学 基于图像脑敏感数据的建成环境主导色测度方法和***

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104933229B (zh) * 2015-05-29 2018-04-13 华南理工大学 一种基于网络图片的建成环境景观特征识别方法
CN108053458A (zh) * 2017-12-08 2018-05-18 河海大学 一种基于地理信息***的流域概化图制作及展示方法
CN112117431B (zh) * 2019-06-21 2021-12-03 无锡先导智能装备股份有限公司 纠偏方法和纠偏***
CN111008368A (zh) * 2019-11-26 2020-04-14 武汉大学 一种基于栅格的协同设计安全产品数据交换方法及***
CN113159122B (zh) * 2021-03-16 2022-03-15 重庆市地理信息和遥感应用中心 基于社交媒体图像数据的城市风貌分析方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101208698A (zh) * 2005-07-01 2008-06-25 金文贞 用于基于实像而设计景观园林的***和方法
CN104077447A (zh) * 2014-07-01 2014-10-01 东南大学 基于纸质平面数据的城市三维空间矢量建模方法
EP2797011A1 (en) * 2013-04-25 2014-10-29 Thomson Licensing Method of and apparatus for providing access to content in a database based on environment-derived contextual information
CN104933229A (zh) * 2015-05-29 2015-09-23 华南理工大学 一种基于网络图片的建成环境景观特征识别方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5631970A (en) * 1993-05-21 1997-05-20 Hsu; Shin-Yi Process for identifying simple and complex objects from fused images and map data
DE202012013403U1 (de) * 2011-08-26 2016-10-27 Terra Bella Technologies Inc. Erfassen und Verarbeiten adaptiver Bilder mit Bildanalyse-Rückmeldung
CN103196429B (zh) * 2013-03-25 2015-03-04 东南大学 城市天际轮廓线立面正射影像图的快速获取和测量方法
CN103823914A (zh) * 2013-05-24 2014-05-28 东南大学 一种游览线路规划方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101208698A (zh) * 2005-07-01 2008-06-25 金文贞 用于基于实像而设计景观园林的***和方法
EP2797011A1 (en) * 2013-04-25 2014-10-29 Thomson Licensing Method of and apparatus for providing access to content in a database based on environment-derived contextual information
CN104077447A (zh) * 2014-07-01 2014-10-01 东南大学 基于纸质平面数据的城市三维空间矢量建模方法
CN104933229A (zh) * 2015-05-29 2015-09-23 华南理工大学 一种基于网络图片的建成环境景观特征识别方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110175215A (zh) * 2019-04-29 2019-08-27 河南大学 一种划分地理过渡带的方法
CN110175215B (zh) * 2019-04-29 2022-11-11 河南大学 一种划分地理过渡带的方法
CN114626966A (zh) * 2022-03-18 2022-06-14 杭州师范大学 一种基于景观格局量化城市大型蓝绿空间降温规模的方法
WO2024021359A1 (zh) * 2022-07-27 2024-02-01 东南大学 基于图像脑敏感数据的建成环境主导色测度方法和***

Also Published As

Publication number Publication date
CN104933229A (zh) 2015-09-23
SG11201709813SA (en) 2017-12-28
CN104933229B (zh) 2018-04-13

Similar Documents

Publication Publication Date Title
WO2016192552A1 (zh) 一种基于网络图片的建成环境景观特征识别方法
US8046167B2 (en) Navigation with contextual color, texture, and structure cues
JP2019537770A (ja) 資産特性を分類するためのプラットフォーム、システム、ならびに方法および航空画像解析による資産特徴保守管理
Aydin Designing building façades for the urban rebuilt environment with integration of digital close-range photogrammetry and geographical information systems
CĂLINA et al. Research on the use of aerial scanning for completing a GIS database
Jhaldiyal et al. Urban Morphology Extractor: A spatial tool for characterizing urban morphology
Adamopoulos et al. Multi-sensor documentation of metric and qualitative information of historic stone structures
CN115409069A (zh) 村镇建筑的识别方法、分类方法、装置、电子设备和介质
CN116340563A (zh) 图形匹配的城市场景地理位置定位方法
CN115984603A (zh) 基于gf-2与开放地图数据的城市绿地精细化分类方法与***
Zhang et al. The color analysis of building façades: Based on the panoramic street view images
CN116682006A (zh) 一种基于街景图片的城市建筑风格要素提取方法及***
Yan et al. Application of computer vision technology in surface damage detection and analysis of shedthin tiles in China: a case study of the classical gardens of Suzhou
Teng et al. Extraction and Analysis of Spatial Feature Data of Traditional Villages Based on the Unmanned Aerial Vehicle (UAV) Image
Mezzino et al. Technical assistance for the conservation of built heritage at bagan, Myanmar
Li et al. A novel outdoor thermal comfort simulation model for heritage environments (OTC-SM-HE): Verify the effectiveness in Gulangyu, China
Sun et al. Research on key technologies of three-dimensional digital reconstruction of cultural heritage in historical and cultural blocks
Shao et al. Identification of historic building “genes” based on deep learning: a case study on Chinese baroque architecture in Harbin, China
CN113971813A (zh) 一种对建筑专业总平面施工图和地下车库施工图中停车位的精准识别方法
Galantucci et al. Machine Learning for the Semi-Automatic 3D Decay Segmentation and Mapping of Heritage Assets
Cao et al. A Real-Time Visual Environmental Estimation System Using Image Segmentation
Gao et al. Research on the application of UAV oblique photogrammetry to LiLong housing: taking Meilan lane as an example
Zhuo et al. Cultural heritage characteristics and damage analysis based on multidimensional data fusion and HBIM–taking the former residence of HSBC bank in Xiamen, China as an example
Kunapo et al. Towards automation of impervious surface mapping using high resolution orthophoto
Tan et al. Unveiling the mechanism of diachronic changes and regional characteristics differences in the built environment of traditional villages from the perspective of color data: evidence from Macheng City, China

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16802475

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 23.05.2018)

122 Ep: pct application non-entry in european phase

Ref document number: 16802475

Country of ref document: EP

Kind code of ref document: A1