JP6780968B2 - Wind speed distribution estimation method around the building and wind speed distribution estimation device around the building - Google Patents

Wind speed distribution estimation method around the building and wind speed distribution estimation device around the building Download PDF

Info

Publication number
JP6780968B2
JP6780968B2 JP2016135402A JP2016135402A JP6780968B2 JP 6780968 B2 JP6780968 B2 JP 6780968B2 JP 2016135402 A JP2016135402 A JP 2016135402A JP 2016135402 A JP2016135402 A JP 2016135402A JP 6780968 B2 JP6780968 B2 JP 6780968B2
Authority
JP
Japan
Prior art keywords
image
building
wind speed
height
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016135402A
Other languages
Japanese (ja)
Other versions
JP2018004568A (en
Inventor
優輝 加藤
優輝 加藤
憲昭 鰐渕
憲昭 鰐渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kumagai Gumi Co Ltd
Original Assignee
Kumagai Gumi Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kumagai Gumi Co Ltd filed Critical Kumagai Gumi Co Ltd
Priority to JP2016135402A priority Critical patent/JP6780968B2/en
Publication of JP2018004568A publication Critical patent/JP2018004568A/en
Application granted granted Critical
Publication of JP6780968B2 publication Critical patent/JP6780968B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Aerodynamic Tests, Hydrodynamic Tests, Wind Tunnels, And Water Tanks (AREA)

Description

本発明は、高層建築物等の建物周辺の風速の分布を推定する方法に関するもので、特に、ニューラルネットワークを用いた風速分布の推定方法とその装置に関する。 The present invention relates to a method of estimating a wind speed distribution around a building such as a high-rise building, and more particularly to a method of estimating a wind speed distribution using a neural network and its device.

近年、高層建築物の増加に伴い、ビル風対策を始めとする風環境評価がますます重要視されている。建物の設計における風環境評価は、風洞実験や数値流体力学を用いた数値シミュレーション(Computational Fluid Dynamics、以下、CFD解析という)などを用いて行われ、その評価結果に基づき防風対策が検討されている。
風洞実験は、局所的に精度の良い結果が得られるが、精度の良い模型を構築する必要があり、実験設備の確保を含めると、実験費用が高額となるといった問題点がある。
一方、CFD解析は、計算精度の向上やPCの性能向上による計算時間の短縮から、近年、風環境評価における主流となっている。しかしながら、風環境評価に用いられる規模の解析モデルを対象とした場合には、精度よく結果を得るために要求されるPCの性能は高く、スーパーコンピュータを用いない限り、1ケースの解析結果を得るために時間がかかってしまう。また、CFD解析は、解析モデル作成や計算に要する時間がかかるだけでなく、解析パラメータの設定に高い専門性が求められることから、設計の初期段階からCFD解析を活用しつつ設計を行うことは効率的ではないと考えられる。
上記に対して、風洞実験やCFD解析によって予め得られている構造物の形状データ及び風向きデータと、それに対応する風速分布の形状データをニューラルネットワークで学習させておき、このニューラルネットワークに風速増加域を予測する建物の形状データと風向きデータ等を入力することにより、建物周辺に生じる風速増加域をリアルタイムで予測する方法が提案されている(例えば、特許文献1参照)。
In recent years, with the increase in high-rise buildings, wind environment evaluation such as building wind countermeasures is becoming more and more important. Wind environment evaluation in building design is carried out using wind tunnel experiments and numerical simulations using computational fluid dynamics (hereinafter referred to as CFD analysis), and windbreak measures are being considered based on the evaluation results. ..
In the wind tunnel experiment, accurate results can be obtained locally, but there is a problem that it is necessary to construct an accurate model, and the experimental cost becomes high if the securing of experimental equipment is included.
On the other hand, CFD analysis has become the mainstream in wind environment evaluation in recent years because of the improvement of calculation accuracy and the shortening of calculation time due to the improvement of PC performance. However, when targeting an analysis model of the scale used for wind environment evaluation, the performance of the PC required to obtain accurate results is high, and unless a supercomputer is used, the analysis result of one case can be obtained. It takes time for this. In addition, CFD analysis not only takes time to create an analysis model and calculation, but also requires a high degree of expertise in setting analysis parameters. Therefore, it is not possible to design while utilizing CFD analysis from the initial stage of design. It is considered inefficient.
In contrast to the above, the shape data and wind direction data of the structure obtained in advance by the wind tunnel experiment and CFD analysis and the shape data of the corresponding wind speed distribution are trained by the neural network, and the wind speed increase region is used in this neural network. A method of predicting the wind speed increase region generated around the building in real time by inputting the shape data and the wind direction data of the building has been proposed (see, for example, Patent Document 1).

特開平8−184526号公報Japanese Unexamined Patent Publication No. 8-184526

しかしながら、上記の風速増加域を予測する方法では、ニューラルネットワークの構造として階層型ニューラルネットワークを用いているため、建物形状が、角柱などの簡単な形状でない場合には、パラメータの数(ニューラルネットワークの結線数)が爆発的に増加してしまうため、学習段階で時間がかかってしまう、もしくは、ニューラルネットワークの結線が現実的に設定可能な範囲に収まらないといった問題点があった。
更に、この手法では、建物周辺の風速増加域は推定できるものの、建物周辺の風速分布については推定できないので、現在の実務で用いられている風環境評価に適用することが困難である。
However, in the above method of predicting the wind velocity increase region, a hierarchical neural network is used as the structure of the neural network. Therefore, if the building shape is not a simple shape such as a square pillar, the number of parameters (of the neural network). Since the number of connections) increases explosively, there are problems that it takes time in the learning stage or that the connections of the neural network do not fall within the range that can be realistically set.
Furthermore, although this method can estimate the wind speed increase area around the building, it cannot estimate the wind speed distribution around the building, so it is difficult to apply it to the wind environment evaluation currently used in practice.

本発明は、従来の問題点に鑑みてなされたもので、建物周辺の風速分布を容易に推定する方法とその装置を提供することを目的とする。 The present invention has been made in view of the conventional problems, and an object of the present invention is to provide a method and an apparatus for easily estimating the wind speed distribution around a building.

本発明は、建物周辺の風速分布を推定する方法であって、推定する箇所の高さ情報と形状情報と風向き情報とを入力するステップと、前記入力された高さ情報と形状情報と風向き情報とから、推定する箇所の高さ情報を表わす高さ画像と、前記建物の断面形状情報を表わす形状画像と、風向き情報を表わす風向き画像とを作成するステップと、畳み込みニューラルネットワーク(CNN;Convolutional Neural Network)を用いて建物周辺の風速分布を推定するステップと、を備え、前記畳み込みニューラルネットワークの入力が、前記高さ画像と前記形状画像と前記風向き画像で、前記畳み込みニューラルネットワークの出力が、建物周辺の風速比の分布を表わす画像で、前記高さ画像が、前記推定する箇所の高さに対応する濃淡または色で表示された画像で、前記形状画像が、建物部分と建物以外の部分とが色分けされた画像で、前記風向き画像が、風上から風下に向かって濃度が変化するグレースケール画像であることを特徴とする。
なお、風速比の分布は、厳密には、風速の大きさそのものの分布である風速分布ではなく、例えば、建物の上層部などの特定位置の風速を基準とした値(風速比)の分布である。以下では、この「風速比の分布」のことを、「風速分布」という。
このように、ニューラルネットワークとして、入力データを画像データとする畳み込みニューラルネットワークを用いたので、ニューラルネットワーク内のパラメータが大幅に削減される。したがって、建物周辺の風速分布を、一般に市販されているパソコンを用いて、容易にかつ短時間で推定できる。また、得られる結果が画像データであるので、推定結果を視覚的に判断できる。
また、前記高さ画像を前記推定する箇所の高さに対応する濃淡または色で表示された画像とし、前記形状画像を建物部分と建物以外の部分とが色分けされた画像とし、前記風向き画像を風上から風下に向かって濃度が変化するグレースケール画像としたので、推定を行うために必要なパラメータが少なく、かつ、専門性を必要としないように簡便な建物周辺の風速分布の推定方法を提供できる。
The present invention provides a method of estimating the wind velocity distribution around the building, the steps of: inputting the height information of the location estimating the shape information and wind direction information, height information and the shape information and the wind direction, which is the input From the information, a step of creating a height image showing the height information of the estimated portion, a shape image showing the cross-sectional shape information of the building, and a wind direction image showing the wind direction information, and a convolutional neural network (CNN). comprising estimating a velocity distribution near the building using a neural network), the input of the convolutional neural network, wherein in the height image the shape image and the wind direction image, the output of the convolutional neural network, An image showing the distribution of the wind speed ratio around the building , the height image is an image displayed in shades or colors corresponding to the height of the estimated location, and the shape image is the building part and the part other than the building. Is a color-coded image, and the wind direction image is a gray scale image whose density changes from upwind to downwind .
Strictly speaking, the distribution of the wind speed ratio is not the distribution of the wind speed itself, but the distribution of the value (wind speed ratio) based on the wind speed at a specific position such as the upper part of the building. is there. In the following, this "wind speed ratio distribution" will be referred to as the "wind speed distribution".
As described above, since the convolutional neural network using the input data as the image data is used as the neural network, the parameters in the neural network are significantly reduced. Therefore, the wind speed distribution around the building can be easily and quickly estimated using a commercially available personal computer. Moreover, since the obtained result is image data, the estimation result can be visually judged.
Further, the height image is an image displayed in shades or colors corresponding to the height of the estimated portion , the shape image is an image in which the building portion and the portion other than the building are color-coded, and the wind direction image is used. Since the grayscale image whose density changes from upwind to leeward, there are few parameters required for estimation, and a simple method for estimating the wind speed distribution around the building so that no specialization is required. Can be provided.

また、本発明は、建物周辺の風速分布(風速比の分布)を推定する装置であって、推定する箇所の高さ情報と形状情報と風向き情報とを入力する入力手段と、前記入力された高さ情報と形状情報と風向き情報とから、推定する箇所の高さ情報を表わす高さ画像と、前記建物の断面形状情報を表わす形状画像と、前記風向き情報を表わす風向き画像とを作成する入力画像作成手段と、建物周辺の風速比の分布を表わす画像を作成する風速分布画像作成手段と、前記作成された風速分布画像を表示する表示手段とを備え、前記高さ画像が、前記推定する箇所の高さに対応する濃淡または色で表示された画像で、前記形状画像が、建物部分と建物以外の部分とが色分けされた画像で、前記風向き画像が、風上から風下に向かって濃度が変化するグレースケール画像であり、前記風速分布画像作成手段が、前記入力画像作成手段で作成された高さ画像と形状画像と前記風向き画像と入力し、
建物周辺の風速比の分布を表わす画像を出力する畳み込みニューラルネットワークから構成されていることを特徴とする。
このような構成を採ることにより、建物周辺の風速分布を容易にかつ短時間で推定できるとともに、推定結果を視覚的に判断できる建物周辺の風速分布推定装置を実現できる。
Further, the present invention is a device for estimating the wind speed distribution ( distribution of the wind speed ratio) around the building , and the input means for inputting the height information, the shape information, and the wind direction information of the estimated portion, and the above-mentioned input. Input to create a height image showing the height information of the estimated portion, a shape image showing the cross-sectional shape information of the building, and a wind direction image showing the wind direction information from the height information, the shape information, and the wind direction information. An image creating means, a wind speed distribution image creating means for creating an image showing the distribution of the wind speed ratio around the building, and a display means for displaying the created wind speed distribution image are provided, and the height image is estimated. An image displayed in shades or colors corresponding to the height of the portion, the shape image is an image in which the building part and the part other than the building are color-coded, and the wind direction image is the density from the wind direction to the wind speed. There is a grayscale image changes, the air velocity distribution image creation means, enter the height image and shape image created by the input image creating unit and the wind direction image,
It is characterized by being composed of a convolutional neural network that outputs an image showing the distribution of the wind speed ratio around the building.
By adopting such a configuration, it is possible to realize a wind speed distribution estimation device around the building that can easily and quickly estimate the wind speed distribution around the building and visually judge the estimation result.

なお、前記発明の概要は、本発明の必要な全ての特徴を列挙したものではなく、これらの特徴群のサブコンビネーションもまた、発明となり得る。 The outline of the present invention does not enumerate all the necessary features of the present invention, and subcombinations of these feature groups can also be inventions.

本発明の実施の形態に係わる風速分布の推定装置を示す図である。It is a figure which shows the estimation apparatus of the wind speed distribution which concerns on embodiment of this invention. 本発明による風速分布の推定方法を示すフローチャートである。It is a flowchart which shows the estimation method of the wind speed distribution by this invention. 高さ画像の作成方法を説明するための図である。It is a figure for demonstrating the method of creating a height image. 形状画像の作成方法を説明するための図である。It is a figure for demonstrating the method of creating a shape image. 風向き画像の作成方法を説明するための図である。It is a figure for demonstrating the method of creating a wind direction image. 畳み込みニューラルネットワークの構成例を示す図である。It is a figure which shows the configuration example of a convolutional neural network. 畳み込み層の動作を説明するための図である。It is a figure for demonstrating the operation of a convolutional layer. プーリング層の動作を説明するための図である。It is a figure for demonstrating the operation of a pooling layer. 形状画像の他の例を示す図である。It is a figure which shows another example of a shape image.

図1は、建物周辺の風速分布を推定する風速分布の推定装置1の構成を示す図で、同図において、11は入力手段、12は入力画像作成手段、13は風速分布画像作成手段、14は等高線図作成手段、15は表示手段である。
入力手段11は、例えば、キーボード等が用いられ、表示手段15は、ディスプレイ等から構成される。また、入力画像作成手段12〜等高線図作成手段14までの各手段は、ROMやRAMなどの記憶装置とマイクロコンピュータのプログラムとから構成される。
入力手段11は、入力された建物の風速分布を推定する箇所の高さの情報と、建物の形状の情報と、風向きの情報とを、入力画像作成手段12に出力する。
入力画像作成手段12は、入力手段11から入力された高さの情報と形状の情報と風向きの情報とから、推定する箇所の地上からの高さの情報を表わす高さ画像(Height map)GHと、建物の形状の情報を表わす形状画像(Shape map)GSと、風向きの情報を表わす風向き画像(Deg map)GDとを作成し、これらの画像を、風速分布画像作成手段13に出力する。
風速分布画像作成手段13は、畳み込みニューラルネットワークから成る演算部13aと、畳み込みニューラルネットワークの出力データから、風速分布画像GWを作成する画像作成部13bとを備える。
演算部13aでは、高さ画像GHと形状画像GSと風向き画像GDとを、畳み込みニューラルネットワークに入力し、風速分布画像GWの画素データを出力し、画像作成部13bは、得られた画素データから風速分布画像GWを作成して等高線図作成手段14に送る。
等高線図作成手段14は、風速分布画像作成手段13から出力される風速分布画像GWに対して、予め設定された風速間隔毎の風速等高線を引いた風速等高線図を作成し表示手段15に送る。
表示手段15は、等高線図作成手段14で作成された風速等高線を表示画面15Gに表示する。
FIG. 1 is a diagram showing a configuration of a wind speed distribution estimation device 1 for estimating a wind speed distribution around a building. In the figure, 11 is an input means, 12 is an input image creating means, 13 is a wind speed distribution image creating means, and 14 Is a contour map creating means, and 15 is a display means.
For example, a keyboard or the like is used as the input means 11, and the display means 15 is composed of a display or the like. Further, each means from the input image creating means 12 to the contour diagram creating means 14 is composed of a storage device such as a ROM or RAM and a microcomputer program.
The input means 11 outputs the information on the height of the input location for estimating the wind speed distribution of the building, the information on the shape of the building, and the information on the wind direction to the input image creating means 12.
The input image creating means 12 is a height image (Height map) G representing the height information of the portion estimated from the height information, the shape information, and the wind direction information input from the input means 11. H , a shape image (Shape map) G S representing information on the shape of the building, and a wind direction image (Deg map) G D representing information on the wind direction are created, and these images are used as the wind speed distribution image creating means 13. Output.
Velocity distribution image creation unit 13 includes a computing section 13a consisting of a convolutional neural network, from the output data of the convolutional neural network, and an image creating unit 13b to create a velocity distribution image G W.
The arithmetic unit 13a, and a height image G H and shape image G S and wind image G D, input to a convolutional neural network, and outputs the pixel data of the velocity distribution image G W, the image creating unit 13b is obtained create a velocity distribution image G W from pixel data transmitted to the contour map creating means 14.
Contour map creating means 14, to the wind velocity distribution image G W output from velocity distribution image creation unit 13, and sends to the display unit 15 to create an air velocity contour map obtained by subtracting the wind velocity contours for each predetermined wind speed interval ..
The display means 15 displays the wind speed contour lines created by the contour map creating means 14 on the display screen 15G.

次に、本発明による建物周辺の風速分布の推定方法について、図2のフローチャートを参照して説明する。
まず、入力手段11に、高さ情報と形状情報と風向き情報とを入力し(ステップS11)、これらの情報から、高さ画像GHと、形状画像GSと、風向き画像GDとを作成する(ステップS12)。
入力手段11に入力する高さ情報は、図3に示すように、推定を行う際の最大高さHMaxと風速分布を推定する箇所の高さHの2つで、高さ画像GHは、地上を黒(画素値;0)、最大高さHMaxを白(画素値;255)とする256階調のグレースケール画像としたときに、画素値が0〜255のうちの高さHに相当する濃淡を有する画像となる。
なお、階調は256階調である必要はなく、8階調以上であればよい。
形状情報は、建物の断面形状で、例えば、図4(a)に示すように、建物20の断面形状が一辺の長さLの正方形の場合には、このLを入力することで、図4(b)に示すような、建物部分GSaが白(255)で、その他の部分GSbが黒(0)で塗りつぶされた形状画像GSとなる。なお、建物とその他の部分とを色分けしてもよい。
図5は、風向き情報と風向き画像GDとの関係を示す図で、風向き情報としては、例えば、南東の風ならSEのように入力してもよいが、本例では、図5に示すように、北の風を表わすベクトルの角度を「θ=0°」とし、風向きが反時計回りに進むように設定し、このθを入力することで、風向き画像GDを作成する。
本例では、風向き画像GDを、風上を白(255)、風下を黒(0)とし、風上から風下に向かって濃度が濃くなるような、グレースケール画像とした。なお、同図では、風向きと風向き画像との関係を分かりやすくするため、風向き画像をGD(θ)としたが、以下、風向き画像を、角度を省略してGDと表わす。
Next, the method of estimating the wind speed distribution around the building according to the present invention will be described with reference to the flowchart of FIG.
First, height information, shape information, and wind direction information are input to the input means 11 (step S11), and height image G H , shape image G S , and wind direction image G D are created from these information. (Step S12).
As shown in FIG. 3, there are two height information to be input to the input means 11, the maximum height H Max at the time of estimation and the height H at the location where the wind velocity distribution is estimated, and the height image GH is , When a grayscale image with 256 gradations is created in which the ground is black (pixel value; 0) and the maximum height H Max is white (pixel value; 255), the height H of the pixel value is 0 to 255. The image has a shade corresponding to.
The gradation does not have to be 256 gradations, and may be 8 gradations or more.
The shape information is the cross-sectional shape of the building. For example, as shown in FIG. 4A, when the cross-sectional shape of the building 20 is a square having a side length L, by inputting this L, FIG. 4 (b) the shown building part G Sa is white (255), the other part G Sb is filled shape image G S in black (0). The building and other parts may be color-coded.
Figure 5 is a diagram showing the relation between wind direction information and wind image G D, as the wind direction information, for example, may be inputted as if southeast wind SE. In this example, as shown in FIG. 5 The angle of the vector representing the north wind is set to "θ = 0 °", the wind direction is set to advance counterclockwise, and the wind direction image G D is created by inputting this θ.
In this example, the wind direction image G D, the windward white (255), and the leeward black (0), a concentration such thickens from the windward toward the leeward, and a gray scale image. In the figure, the wind direction image is referred to as G D (θ) in order to make it easier to understand the relationship between the wind direction and the wind direction image, but hereinafter, the wind direction image is referred to as G D by omitting the angle.

次に、高さ画像GHと形状画像GSと風向き画像GDとを、風速分布画像作成手段13の演算部である畳み込みニューラルネットワークに入力して、風速分布画像GWの画素データを演算し(ステップS13)、この演算された風速分布画像GWの画素データから風速分布画像GWを作成する(ステップS14)。
なお、フィルタ特性などの畳み込みニューラルネットワークの学習データは、予め得られている高さ画像GH0と、形状画像GS0と、風向き画像GD0と、それに対応する風速分布画像GW0とをニューラルネットワークで繰り返し学習させることで求められる。
学習は、ニューラルネットワークの代表的な学習方法である誤差逆伝播法により行われる。具体的には、高さ画像GH0と形状画像GS0と風向き画像GD0とを畳み込みニューラルネットワークに入力して得られた出力画像Goutと実際の風速分布画像GW0との誤差を求め、この誤差を、後ろ向きのに伝播して、パラメータであるフィルタ特性を微調整する。この作業を繰り返し行うことで、誤差が最小になるようなフィルタ特性を、ニューラルネットワークの各層ごとに求める。
畳み込みニューラルネットワークについては後述する。
最後に、風速分布画像GWから等高線図を作成して表示する(ステップS15)。
なお、同じ建物20の異なる高さの風速分布を推定する場合、風向きを変えた時の風速分布を推定する場合、及び、断面形状の異なる建物の風速分布を推定する場合には、ステップS11に戻って、入力するパラメータを変更すればよい。
Next, the height image G H , the shape image G S, and the wind direction image G D are input to the convolutional neural network which is the calculation unit of the wind speed distribution image creating means 13, and the pixel data of the wind speed distribution image G W is calculated. (step S13), and creates an air velocity distribution image G W from the pixel data in the computed velocity distribution image G W (step S14).
The training data of the convolutional neural network such as the filter characteristics is a neural network of a height image G H0 , a shape image G S0 , a wind direction image G D0, and a corresponding wind speed distribution image G W0. It is obtained by repeatedly learning with.
Learning is performed by the error back propagation method, which is a typical learning method of neural networks. Specifically, the error between the output image Gout obtained by convolving the height image G H0 , the shape image G S 0, and the wind direction image G D 0 into the neural network and the actual wind speed distribution image G W 0 is obtained. The error is propagated backwards to fine-tune the filter characteristics, which are parameters. By repeating this work, the filter characteristics that minimize the error are obtained for each layer of the neural network.
The convolutional neural network will be described later.
Finally, creating and displaying contour plot from velocity distribution image G W (step S15).
In step S11, when estimating the wind speed distribution of the same building 20 at different heights, when estimating the wind speed distribution when the wind direction is changed, and when estimating the wind speed distribution of buildings having different cross-sectional shapes, step S11. You can go back and change the parameters you enter.

ここで、畳み込みニューラルネットワークについて説明する。
畳み込みニューラルネットワークは、フィルタを用いた畳み込み処理を行って特徴マップを出力する畳み込み層(Convolution layer)と、抽出された特徴の位置感度を低下させる役割を持つプーリング層(Pooling layer)とを組み合わせたフィードフォワード型のニューラルネットワークで、畳み込み層とプーリング層とを何回か繰り返した後に、全結合層(L1)が配置される構成となっている。
畳み込み層は、入力画像に対してフィルタをかける(畳み込む)層で、入力画像の特徴を的確に捉えるためには、フィルタを複数個使うことが好ましい。
なお、フィルタは、適当な大きさの領域に含まれる各画素値を重みづけして足し合わせるもので、4次元テンソルで表せる。
一方、プーリング層は、矩形のフィルタを入力画像内でずらして行き矩形内の最大値を取出して新しい画像を出力する最大値プーリングと、矩形内の値の平均値を採る平均値プーリングとがある。
本例では、図6(a),(b)に示すように、畳み込み層を9層(Conv1〜Conv9)とし、第3畳み込み層(Conv3)と、第4畳み込み層(Conv4)との間に第1プーリング層(Pooling1)を配置し、第6畳み込み層(Conv6)と、第7畳み込み層(Conv7)との間に第2プーリング層(Pooling2)を配置する構成とした。
Here, the convolutional neural network will be described.
The convolutional neural network combines a convolution layer that performs convolution processing using a filter and outputs a feature map, and a pooling layer that has the role of reducing the positional sensitivity of the extracted features. It is a feed-forward type neural network, and the convolutional layer and the pooling layer are repeated several times, and then the fully connected layer (L1) is arranged.
The convolutional layer is a layer that filters (convolves) the input image, and it is preferable to use a plurality of filters in order to accurately capture the features of the input image.
The filter weights and adds each pixel value included in a region of an appropriate size, and can be represented by a four-dimensional tensor.
On the other hand, the pooling layer has a maximum value pooling that shifts the rectangular filter in the input image and extracts the maximum value in the rectangle to output a new image, and an average value pooling that takes the average value of the values in the rectangle. ..
In this example, as shown in FIGS. 6A and 6B, the convolutional layers are 9 layers (Conv1 to Conv9), and between the 3rd convolutional layer (Conv3) and the 4th convolutional layer (Conv4). The first pooling layer (Pooling1) is arranged, and the second pooling layer (Pooling2) is arranged between the sixth convolutional layer (Conv6) and the seventh convolutional layer (Conv7).

次に、畳み込み層の動作について、第1畳み込み層(Conv1)の出力画像(Feature
map)を得るまでを例にとって説明する。
図7に示すように、入力画像(Input map)である高さ画像GH、形状画像GS、及び、風向き画像GDをそれぞれ64×64ピクセルとし、これら3個の入力画像に3×3のそれぞれ異なるフィルタ32個を、スライド幅1でかけ、各画像に対応する3枚の64×64ピクセルの画像を得た後、これら3枚の64×64ピクセルの画像を圧縮して32枚の64×64ピクセルの画像(以下、フィルタ後画像という)を得る。圧縮は、3枚の画像を重ね合わせ、同一箇所の画素の値を合計するか、バイアスを加えてから合計すればよい。なお、このときの4次元テンソルは、フィルタ数が32、入力画像枚数が3、各フィルタの大きさが3×3なので、W[32,3,3,3]と表わせる。4次元テンソルの各成分は、学習により獲得する。
また、フィルタのサイズを3×3としたのは、フィルタ後画像の画素数を入力画像と同じ64×64ピクセルにする(パディングサイズを1にする)ためである。
そして、各フィルタ後画像にバイアスを加えた後、活性化関数を適用することで、出力画像である第1の特徴画像(First Feature map)を出力する。
活性化関数としては、tanhやジグモイド関数などが用いられるが、本例では、tanhよりも高速でかつ高性能なReLU(Rectified Linear Unit)を用いた。なお、活性化関数への入力を、ミニバッチ単位で正規化(Batch Normalize)してもよい。
第2畳み込み層(Conv2)では、第1畳み込み層(Conv1)の出力画像である32枚の第1の特徴画像(1st Feature map)を入力画像(Input map)とし、これらの入力画像に3×3のそれぞれ異なるフィルタをかけて得られたフィルタ後画像に、第1畳み込み層(Conv1)と同様に、バイアスを加えた後、活性化関数としてReLUを適用することで得られる第2の特徴画像(2nd Feature map)を出力する。
第3畳み込み層(Conv3)でも、第2畳み込み層(Conv2)と同様にして、第3の特徴画像(3rd Feature map)を出力する。

Next, regarding the operation of the convolutional layer, the output image (Feature) of the first convolutional layer (Conv1).
The process of obtaining map) will be described as an example.
As shown in FIG. 7, the height image G H , the shape image G S , and the wind direction image G D, which are input maps, are 64 × 64 pixels each, and 3 × 3 are added to these three input images. 3 two Re different filters respectively Noso, go slide width 1, after obtaining the images of the three 64 × 64 pixels corresponding to each image, compresses the images of these three 64 × 64 pixels 32 images of 64 × 64 pixels (hereinafter referred to as filtered images) are obtained. The compression may be performed by superimposing three images and summing the values of the pixels at the same location, or by applying a bias and then summing. The four-dimensional tensor at this time can be expressed as W [32,3,3,3] because the number of filters is 32, the number of input images is 3, and the size of each filter is 3 × 3. Each component of the four-dimensional tensor is acquired by learning.
The reason why the size of the filter is set to 3 × 3 is that the number of pixels of the filtered image is 64 × 64 pixels, which is the same as that of the input image (the padding size is set to 1).
Then, after biasing each filtered image, an activation function is applied to output a first feature map, which is an output image.
As the activation function, tanh or jigmoid function is used, but in this example, ReLU (Rectified Linear Unit), which is faster and has higher performance than tanh, is used. The input to the activation function may be normalized in mini-batch units (Batch Normalize).
In the second convolutional layer (Conv2), 32 first feature images (1st Feature map) which are output images of the first convolutional layer (Conv1) are set as input images (Input map), and 3 × are added to these input images. 3 Noso are respectively after different filters obtained by filtering the image, like the first convolution layer (CONV1), was added to the bias, the obtained by applying the ReLU as activation function 2 Outputs the feature image (2nd Feature map) of.
The third convolutional layer (Conv3) also outputs a third feature image (3rd Feature map) in the same manner as the second convolutional layer (Conv2).

次に、プーリング層の動作について、第3の特徴画像(3rd Feature map)を、第1プーリング層(Pool1)にてプーリングして、出力画像である第1プーリング画像(1st Pooling map)を得るまでを例にとって説明する。
本例では、図8に示すように、プーリングに3×3の矩形フィルタを、入力画像である第3の特徴画像(3rd Feature map)内で、スライド幅2でずらして行き、矩形内の最大の値を取出して新しい画像を出力する最大値プーリングを行った。
本例では、スライド幅2としたので、第1プーリング画像は、32枚の33×33ピクセルの画像となる。
なお、上述したように、平均値プーリングを行ってもよい。
Next, regarding the operation of the pooling layer, the third feature image (3rd Feature map) is pooled by the first pooling layer (Pool1) until the first pooling image (1st Pooling map) which is an output image is obtained. Will be described as an example.
In this example, as shown in FIG. 8, a 3 × 3 rectangular filter is shifted for pooling by a slide width of 2 in the third feature image (3rd Feature map), which is an input image, and the maximum in the rectangle. The maximum value pooling was performed to extract the value of and output a new image.
In this example, since the slide width is 2, the first pooling image is 32 images of 33 × 33 pixels.
As described above, mean value pooling may be performed.

第4畳み込み層(Conv4)では、第1プーリング画像を入力画像とし、これらの入力画像に3×3のそれぞれ異なるフィルタをかけて得られたフィルタ後画像に、第1畳み込み層(Conv1)と同様に、バイアスを加えた後、活性化関数としてReLUを適用することで得られる第4の特徴画像(4th Feature map)を出力する。入力画像である第1プーリング画像が32枚の33×33ピクセルの画像なので、第4の特徴画像も32枚の33×33ピクセルの画像となる。
第5畳み込み層(Conv5)では、第4畳み込み層(Conv4)の出力画像である32枚の第4の特徴画像(4th Feature map)を入力画像とし、これらの入力画像に3×3のそれぞれ異なるフィルタをかけて得られたフィルタ後画像に、バイアスを加えた後、活性化関数としてReLUを適用することで得られる第5の特徴画像(5th Feature map)を出力する。
第6畳み込み層(Conv6)でも、第5畳み込み層(Conv5)と同様にして、第6の特徴画像(6th Feature map)を出力する。
本例では、第2プーリング層(Pool2)にて、この第6の特徴画像に対して、3×3の矩形フィルタを、スライド幅2で最大値プーリングを行い、32枚の17×17のピクセルの画像(以下、第2プーリング画像という)を出力する。
第7畳み込み層(Conv7)では、第2プーリング画像(2nd Pooling map)を入力画像とし、これらの入力画像に3×3の個それぞれ異なるフィルタをかけて得られたフィルタ後画像に、第2畳み込み層(Conv2)と同様に、バイアスを加えた後、活性化関数としてReLUを適用することで得られる第7の特徴画像(4th Feature map)を出力する。入力画像である第2プーリング画像が32枚の17×17ピクセルの画像なので、第7の特徴画像も32枚の17×17ピクセルの画像となる。
第8畳み込み層(Conv8)では、第7の特徴画像を入力画像とし、第2畳み込み層と同様にして、第8の特徴画像(8th Feature map)を出力し、第9畳み込み層(Conv9)では、第8の特徴画像を入力画像とし、第9の特徴画像(9th Feature map)を出力する。
第9の特徴画像は、32枚の17×17ピクセルの画像で、この第9の特徴画像のデータが全結合層(L1)の入力データとなる。
In the fourth convolutional layer (Conv4), the first pooling image is used as an input image, and the filtered image obtained by applying different filters of 3 × 3 to these input images is the same as that of the first convolutional layer (Conv1). After applying a bias to the image, a fourth feature image (4th Feature map) obtained by applying ReLU as an activation function is output. Since the first pooling image, which is the input image, is 32 33 × 33 pixel images, the fourth feature image is also 32 33 × 33 pixel images.
In the 5th convolutional layer (Conv5), 32 4th feature images (4th Feature maps) which are output images of the 4th convolutional layer (Conv4) are used as input images, and these input images are 3 × 3 different from each other. After applying a bias to the filtered image obtained by applying a filter, a fifth feature image (5th Feature map) obtained by applying ReLU as an activation function is output.
The sixth convolutional layer (Conv6) also outputs the sixth feature map (6th Feature map) in the same manner as the fifth convolutional layer (Conv5).
In this example, in the second pooling layer (Pool2), a 3 × 3 rectangular filter is subjected to maximum value pooling with a slide width of 2 on the sixth feature image, and 32 17 × 17 pixels. Image (hereinafter referred to as the second pooling image) is output.
In the 7th convolutional layer (Conv7), the 2nd pooling image (2nd Pooling map) is used as an input image, and the 2nd convolutional image is obtained by applying 3 × 3 different filters to each of these input images. Similar to the layer (Conv2), after applying a bias, the 7th feature image (4th Feature map) obtained by applying ReLU as an activation function is output. Since the second pooling image, which is the input image, is 32 17 × 17 pixel images, the 7th feature image is also 32 17 × 17 pixel images.
In the 8th convolutional layer (Conv8), the 7th feature image is used as an input image, the 8th feature image (8th Feature map) is output in the same manner as in the 2nd convolutional layer, and the 9th convolutional layer (Conv9) , The eighth feature image is used as an input image, and the ninth feature image (9th Feature map) is output.
The ninth feature image is 32 17 × 17 pixel images, and the data of the ninth feature image is the input data of the fully connected layer (L1).

全結合層(L1)は、図6(b)に示したように、入力層と出力層とを有するニューラルネットワークで、入力データとしては、2次元画像である第9の特徴画像を1次元のベクトルに変換したものを用いる。
第9の特徴画像は32枚の17×17ピクセルの画像なので、ベクトルの成分数は32×17×17=9248となる。
ここで、出力画像である風速分布画像GWの大きさを、入力画像(高さ画像GH、形状画像GS、及び、風向き画像GD)と同じ64×64ピクセルとすると、出力ベクトルの成分数は64×64=4096となる。
したがって、全結合層(L1)の出力であるベクトル成分を64×64ピクセルの画像に変換すれは、風向きを与えたときの、地上からの高さHにおける風速分布画像GWを得ることができる。
As shown in FIG. 6B, the fully connected layer (L1) is a neural network having an input layer and an output layer, and as input data, a ninth feature image which is a two-dimensional image is one-dimensional. Use the one converted into a vector.
Since the ninth feature image is 32 17 × 17 pixel images, the number of vector components is 32 × 17 × 17 = 9248.
Here, assuming that the size of the wind speed distribution image GW, which is the output image, is 64 × 64 pixels, which is the same as the input image (height image G H , shape image G S , and wind direction image G D ), the output vector The number of components is 64 × 64 = 4096.
Thus, by converting an output at which vector components of the total binding layer (L1) to 64 × 64 pixels of the image can be obtained when the given wind direction, the wind speed distribution image G W at a height H from the ground ..

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は前記実施の形態に記載の範囲には限定されない。前記実施の形態に、多様な変更または改良を加えることが可能であることが当業者にも明らかである。そのような変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲から明らかである。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the embodiments. It will be apparent to those skilled in the art that various changes or improvements can be made to the above embodiments. It is clear from the claims that forms with such modifications or improvements may also be included in the technical scope of the invention.

例えば、前記実施形態では、高さ画像GHを濃淡画像としたが、最大高さを「赤色」とし、地上を「紫色」とするなど、色分けした画像であっても良い。あるいは、斜線や網目などの模様で高さを区別しても良い。要は、データ上で区別できるもので、かつ、重複するものでなければ、どんな画像でも良い。また、画像情報ではなく、アドレスなどの高さの情報に対応したデータであってもよい。
また、前記実施形態では、建物20の断面形状を一辺の長さLの正方形としたが、他の形状であってもよい。例えば、図9(a)に示すように、建物20の断面形状がL字状の場合には、断面形状を表わすパラメータa,b,c,dを入力すれば、図9(b)に示すような、L字状の断面形状を有する建物の形状画像GSを作成できる。
なお、建物の断面形状が、角柱や円柱のような単純な形状でない場合には、建物20の断面図をスキャナーなどで読み取り、この読み取ったデータと縮小率とを入力してもよい。
また、本発明は、上記のような単体建物だけでなく複数の建物が存在する場合においても風力分布を測定することが可能である。
For example, in the above-described embodiment, the height image GH is a shade image, but the maximum height may be "red" and the ground may be "purple". Alternatively, the height may be distinguished by a pattern such as a diagonal line or a mesh. In short, any image may be used as long as it is distinguishable on the data and does not overlap. Further, the data may be data corresponding to height information such as an address instead of image information.
Further, in the above-described embodiment, the cross-sectional shape of the building 20 is a square having a side length L, but other shapes may be used. For example, as shown in FIG. 9A, when the cross-sectional shape of the building 20 is L-shaped, if the parameters a, b, c, and d representing the cross-sectional shape are input, it is shown in FIG. 9B. It is possible to create a shape image G S of a building having an L-shaped cross-sectional shape as described above.
When the cross-sectional shape of the building is not a simple shape such as a prism or a cylinder, the cross-sectional view of the building 20 may be read by a scanner or the like, and the read data and the reduction ratio may be input.
Further, the present invention can measure the wind power distribution not only in the case of a single building as described above but also in the case where a plurality of buildings exist.

また、前記実施形態では、建物20の形状画像を建物の断面形状を表す画像としたが、形状画像に、建物20の高さ、幅、奥行き等の寸法に関する情報を付加して風速分布を推定してもよい。 Further, in the above-described embodiment, the shape image of the building 20 is used as an image showing the cross-sectional shape of the building, but the wind speed distribution is estimated by adding information on dimensions such as height, width, and depth of the building 20 to the shape image. You may.

10 風速分布の推定装置、11 入力手段、12 入力画像作成手段、
13 風速分布画像作成手段、14 等高線図作成手段、15 表示手段、
15G 表示画面、20 建物。
10 Wind speed distribution estimation device, 11 input means, 12 input image creation means,
13 Wind speed distribution image creation means, 14 Contour map creation means, 15 Display means,
15G display screen, 20 buildings.

Claims (2)

物周辺の風速分布を推定する方法であって、
推定する箇所の高さ情報と形状情報と風向き情報とを入力するステップと、
前記入力された高さ情報と形状情報と風向き情報とから、推定する箇所の高さ情報を表わす高さ画像と、前記建物の断面形状情報を表わす形状画像と、風向き情報を表わす風向き画像とを作成するステップと、
畳み込みニューラルネットワークを用いて建物周辺の風速分布を推定するステップと
を備え、
前記畳み込みニューラルネットワークの入力が、
前記高さ画像と前記形状画像と前記風向き画像で、
前記畳み込みニューラルネットワークの出力が、
建物周辺の風速比の分布を表わす画像で
前記高さ画像が、前記推定する箇所の高さに対応する濃淡または色で表示された画像で、
前記形状画像が、建物部分と建物以外の部分とが色分けされた画像で、
前記風向き画像が、風上から風下に向かって濃度が変化するグレースケール画像であることを特徴とする建物周辺の風速分布の推定方法。
A method to estimate the wind speed distribution of the surrounding buildings,
Steps to input height information, shape information, and wind direction information of the estimated location,
From the input height information, shape information, and wind direction information, a height image showing the height information of a portion to be estimated, a shape image showing the cross-sectional shape information of the building, and a wind direction image showing the wind direction information are obtained. Steps to create and
Steps to estimate the wind speed distribution around the building using a convolutional neural network,
With
The input of the convolutional neural network
In the wind image the height image and the shape image,
The output of the convolutional neural network
An image showing the distribution of wind speed ratios around the building .
The height image is an image displayed in shades or colors corresponding to the height of the estimated portion.
The shape image is an image in which the building part and the part other than the building are color-coded.
The wind direction image, a method of estimating the wind speed distribution of the buildings near you being a grayscale image of varying density from the windward toward the leeward.
建物周辺の風速分布を推定する装置であって、
推定する箇所の高さ情報と形状情報と風向き情報とを入力する入力手段と、
前記入力された高さ情報と形状情報と風向き情報とから、
推定する箇所の高さ情報を表わす高さ画像と、前記建物の断面形状情報を表わす形状画像と、前記風向き情報を表わす風向き画像とを作成する入力画像作成手段と、
建物周辺の風速比の分布を表わす画像を作成する風速分布画像作成手段と、
前記作成された風速分布画像を表示する表示手段とを備え、
前記高さ画像が、前記推定する箇所の高さに対応する濃淡または色で表示された画像で、
前記形状画像が、建物部分と建物以外の部分とが色分けされた画像で、
前記風向き画像が、風上から風下に向かって濃度が変化するグレースケール画像であり、
前記風速分布画像作成手段が、
前記入力画像作成手段で作成された高さ画像と形状画像と前記風向き画像とを入力し、
建物周辺の風速比の分布を表わす画像を出力する畳み込みニューラルネットワークから構成されていることを特徴とする建物周辺の風速分布推定装置。
A device that estimates the wind speed distribution around a building.
Input means for inputting height information, shape information, and wind direction information of the estimated location,
From the input height information, shape information, and wind direction information,
The height image representing the height information of the location to be estimated, a shape image representing a cross-sectional shape information of the building, an input image creating means for creating a wind image representing the wind direction information,
A wind speed distribution image creation means for creating an image showing the distribution of the wind speed ratio around the building,
It is provided with a display means for displaying the created wind speed distribution image.
The height image is an image displayed in shades or colors corresponding to the height of the estimated portion.
The shape image is an image in which the building part and the part other than the building are color-coded.
The wind direction image is a grayscale image in which the density changes from upwind to leeward.
The wind speed distribution image creating means
Enter the height image and shape image created with the wind image by the input image creating means,
A wind speed distribution estimation device around a building, characterized in that it is composed of a convolutional neural network that outputs an image showing the distribution of the wind speed ratio around the building.
JP2016135402A 2016-07-07 2016-07-07 Wind speed distribution estimation method around the building and wind speed distribution estimation device around the building Active JP6780968B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016135402A JP6780968B2 (en) 2016-07-07 2016-07-07 Wind speed distribution estimation method around the building and wind speed distribution estimation device around the building

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016135402A JP6780968B2 (en) 2016-07-07 2016-07-07 Wind speed distribution estimation method around the building and wind speed distribution estimation device around the building

Publications (2)

Publication Number Publication Date
JP2018004568A JP2018004568A (en) 2018-01-11
JP6780968B2 true JP6780968B2 (en) 2020-11-04

Family

ID=60948879

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016135402A Active JP6780968B2 (en) 2016-07-07 2016-07-07 Wind speed distribution estimation method around the building and wind speed distribution estimation device around the building

Country Status (1)

Country Link
JP (1) JP6780968B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111351665B (en) * 2018-12-24 2021-08-31 中国科学院沈阳计算技术研究所有限公司 Rolling bearing fault diagnosis method based on EMD and residual error neural network
JP7220083B2 (en) * 2019-01-23 2023-02-09 大成建設株式会社 Wind speed distribution estimation device and wind speed distribution estimation method
JP7374010B2 (en) * 2020-02-05 2023-11-06 大成建設株式会社 Wind speed distribution estimation device and wind speed distribution estimation method
JP7381384B2 (en) 2020-03-31 2023-11-15 株式会社熊谷組 How to use wind speed data
WO2024057497A1 (en) * 2022-09-15 2024-03-21 鹿島建設株式会社 Flow field prediction device, learning device, flow field prediction program, and learning program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08184526A (en) * 1994-12-28 1996-07-16 Fujita Corp Method and system for predicting wind velocity increasing zone around structure
JP2000337994A (en) * 1999-05-31 2000-12-08 Takenaka Komuten Co Ltd Lattice generator for fluid analysis and computer readable recording medium recording lattice generating program for fluid analysis
JP2002049298A (en) * 2001-08-17 2002-02-15 Ohbayashi Corp Program and method for predicting wind environment
JP6042274B2 (en) * 2013-06-28 2016-12-14 株式会社デンソーアイティーラボラトリ Neural network optimization method, neural network optimization apparatus and program

Also Published As

Publication number Publication date
JP2018004568A (en) 2018-01-11

Similar Documents

Publication Publication Date Title
JP6780968B2 (en) Wind speed distribution estimation method around the building and wind speed distribution estimation device around the building
US10789504B2 (en) Method and device for extracting information in histogram
CN107403197B (en) Crack identification method based on deep learning
US11030355B2 (en) Concurrent display systems and methods for aerial roof estimation
US11972550B2 (en) Image processing apparatus and image processing method
US8165350B2 (en) Assessment of a view through the overlay of maps
US8170840B2 (en) Pitch determination systems and methods for aerial roof estimation
CN108960135B (en) Dense ship target accurate detection method based on high-resolution remote sensing image
JP7048225B2 (en) Trained model for building area extraction
US10509959B2 (en) Method and device for segmenting lines in line chart
JP7372536B2 (en) Arithmetic program, arithmetic device and arithmetic method
US9723204B2 (en) Dynamic motion path blur kernel
CN111369550A (en) Image registration and defect detection method, model, training method, device and equipment
JP2016223815A (en) Deterioration diagnostic system and deterioration diagnostic method
US20160063669A1 (en) Dynamic Motion Path Blur User Interface
JP7463186B2 (en) Information processing device, information processing method, and program
US9779484B2 (en) Dynamic motion path blur techniques
CN105208244B (en) A kind of LCD soft proof method based on dot gain amendment
CN110533713A (en) Bridge Crack width high-precision measuring method and measuring device
JP2006031688A (en) Image processing device, method, and program
JP7374847B2 (en) Face evaluation system, face evaluation learning system, face evaluation method, face evaluation learning method, computer program
JP7151742B2 (en) Image conversion device, image conversion method, and computer program for image conversion
Shinozaki et al. Detection of deterioration of furnace walls using large-scale point-clouds
JP7381384B2 (en) How to use wind speed data
WO2020261568A1 (en) Road surface inspection device, road surface inspection method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190416

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200707

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201015

R150 Certificate of patent or registration of utility model

Ref document number: 6780968

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350