JP6780968B2 - 建物周辺の風速分布の推定方法及び建物周辺の風速分布推定装置 - Google Patents
建物周辺の風速分布の推定方法及び建物周辺の風速分布推定装置 Download PDFInfo
- Publication number
- JP6780968B2 JP6780968B2 JP2016135402A JP2016135402A JP6780968B2 JP 6780968 B2 JP6780968 B2 JP 6780968B2 JP 2016135402 A JP2016135402 A JP 2016135402A JP 2016135402 A JP2016135402 A JP 2016135402A JP 6780968 B2 JP6780968 B2 JP 6780968B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- building
- wind speed
- height
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Aerodynamic Tests, Hydrodynamic Tests, Wind Tunnels, And Water Tanks (AREA)
Description
風洞実験は、局所的に精度の良い結果が得られるが、精度の良い模型を構築する必要があり、実験設備の確保を含めると、実験費用が高額となるといった問題点がある。
一方、CFD解析は、計算精度の向上やPCの性能向上による計算時間の短縮から、近年、風環境評価における主流となっている。しかしながら、風環境評価に用いられる規模の解析モデルを対象とした場合には、精度よく結果を得るために要求されるPCの性能は高く、スーパーコンピュータを用いない限り、1ケースの解析結果を得るために時間がかかってしまう。また、CFD解析は、解析モデル作成や計算に要する時間がかかるだけでなく、解析パラメータの設定に高い専門性が求められることから、設計の初期段階からCFD解析を活用しつつ設計を行うことは効率的ではないと考えられる。
上記に対して、風洞実験やCFD解析によって予め得られている構造物の形状データ及び風向きデータと、それに対応する風速分布の形状データをニューラルネットワークで学習させておき、このニューラルネットワークに風速増加域を予測する建物の形状データと風向きデータ等を入力することにより、建物周辺に生じる風速増加域をリアルタイムで予測する方法が提案されている(例えば、特許文献1参照)。
更に、この手法では、建物周辺の風速増加域は推定できるものの、建物周辺の風速分布については推定できないので、現在の実務で用いられている風環境評価に適用することが困難である。
なお、風速比の分布は、厳密には、風速の大きさそのものの分布である風速分布ではなく、例えば、建物の上層部などの特定位置の風速を基準とした値(風速比)の分布である。以下では、この「風速比の分布」のことを、「風速分布」という。
このように、ニューラルネットワークとして、入力データを画像データとする畳み込みニューラルネットワークを用いたので、ニューラルネットワーク内のパラメータが大幅に削減される。したがって、建物周辺の風速分布を、一般に市販されているパソコンを用いて、容易にかつ短時間で推定できる。また、得られる結果が画像データであるので、推定結果を視覚的に判断できる。
また、前記高さ画像を前記推定する箇所の高さに対応する濃淡または色で表示された画像とし、前記形状画像を建物部分と建物以外の部分とが色分けされた画像とし、前記風向き画像を風上から風下に向かって濃度が変化するグレースケール画像としたので、推定を行うために必要なパラメータが少なく、かつ、専門性を必要としないように簡便な建物周辺の風速分布の推定方法を提供できる。
建物周辺の風速比の分布を表わす画像を出力する畳み込みニューラルネットワークから構成されていることを特徴とする。
このような構成を採ることにより、建物周辺の風速分布を容易にかつ短時間で推定できるとともに、推定結果を視覚的に判断できる建物周辺の風速分布推定装置を実現できる。
入力手段11は、例えば、キーボード等が用いられ、表示手段15は、ディスプレイ等から構成される。また、入力画像作成手段12〜等高線図作成手段14までの各手段は、ROMやRAMなどの記憶装置とマイクロコンピュータのプログラムとから構成される。
入力手段11は、入力された建物の風速分布を推定する箇所の高さの情報と、建物の形状の情報と、風向きの情報とを、入力画像作成手段12に出力する。
入力画像作成手段12は、入力手段11から入力された高さの情報と形状の情報と風向きの情報とから、推定する箇所の地上からの高さの情報を表わす高さ画像(Height map)GHと、建物の形状の情報を表わす形状画像(Shape map)GSと、風向きの情報を表わす風向き画像(Deg map)GDとを作成し、これらの画像を、風速分布画像作成手段13に出力する。
風速分布画像作成手段13は、畳み込みニューラルネットワークから成る演算部13aと、畳み込みニューラルネットワークの出力データから、風速分布画像GWを作成する画像作成部13bとを備える。
演算部13aでは、高さ画像GHと形状画像GSと風向き画像GDとを、畳み込みニューラルネットワークに入力し、風速分布画像GWの画素データを出力し、画像作成部13bは、得られた画素データから風速分布画像GWを作成して等高線図作成手段14に送る。
等高線図作成手段14は、風速分布画像作成手段13から出力される風速分布画像GWに対して、予め設定された風速間隔毎の風速等高線を引いた風速等高線図を作成し表示手段15に送る。
表示手段15は、等高線図作成手段14で作成された風速等高線を表示画面15Gに表示する。
まず、入力手段11に、高さ情報と形状情報と風向き情報とを入力し(ステップS11)、これらの情報から、高さ画像GHと、形状画像GSと、風向き画像GDとを作成する(ステップS12)。
入力手段11に入力する高さ情報は、図3に示すように、推定を行う際の最大高さHMaxと風速分布を推定する箇所の高さHの2つで、高さ画像GHは、地上を黒(画素値;0)、最大高さHMaxを白(画素値;255)とする256階調のグレースケール画像としたときに、画素値が0〜255のうちの高さHに相当する濃淡を有する画像となる。
なお、階調は256階調である必要はなく、8階調以上であればよい。
形状情報は、建物の断面形状で、例えば、図4(a)に示すように、建物20の断面形状が一辺の長さLの正方形の場合には、このLを入力することで、図4(b)に示すような、建物部分GSaが白(255)で、その他の部分GSbが黒(0)で塗りつぶされた形状画像GSとなる。なお、建物とその他の部分とを色分けしてもよい。
図5は、風向き情報と風向き画像GDとの関係を示す図で、風向き情報としては、例えば、南東の風ならSEのように入力してもよいが、本例では、図5に示すように、北の風を表わすベクトルの角度を「θ=0°」とし、風向きが反時計回りに進むように設定し、このθを入力することで、風向き画像GDを作成する。
本例では、風向き画像GDを、風上を白(255)、風下を黒(0)とし、風上から風下に向かって濃度が濃くなるような、グレースケール画像とした。なお、同図では、風向きと風向き画像との関係を分かりやすくするため、風向き画像をGD(θ)としたが、以下、風向き画像を、角度を省略してGDと表わす。
なお、フィルタ特性などの畳み込みニューラルネットワークの学習データは、予め得られている高さ画像GH0と、形状画像GS0と、風向き画像GD0と、それに対応する風速分布画像GW0とをニューラルネットワークで繰り返し学習させることで求められる。
学習は、ニューラルネットワークの代表的な学習方法である誤差逆伝播法により行われる。具体的には、高さ画像GH0と形状画像GS0と風向き画像GD0とを畳み込みニューラルネットワークに入力して得られた出力画像Goutと実際の風速分布画像GW0との誤差を求め、この誤差を、後ろ向きのに伝播して、パラメータであるフィルタ特性を微調整する。この作業を繰り返し行うことで、誤差が最小になるようなフィルタ特性を、ニューラルネットワークの各層ごとに求める。
畳み込みニューラルネットワークについては後述する。
最後に、風速分布画像GWから等高線図を作成して表示する(ステップS15)。
なお、同じ建物20の異なる高さの風速分布を推定する場合、風向きを変えた時の風速分布を推定する場合、及び、断面形状の異なる建物の風速分布を推定する場合には、ステップS11に戻って、入力するパラメータを変更すればよい。
畳み込みニューラルネットワークは、フィルタを用いた畳み込み処理を行って特徴マップを出力する畳み込み層(Convolution layer)と、抽出された特徴の位置感度を低下させる役割を持つプーリング層(Pooling layer)とを組み合わせたフィードフォワード型のニューラルネットワークで、畳み込み層とプーリング層とを何回か繰り返した後に、全結合層(L1)が配置される構成となっている。
畳み込み層は、入力画像に対してフィルタをかける(畳み込む)層で、入力画像の特徴を的確に捉えるためには、フィルタを複数個使うことが好ましい。
なお、フィルタは、適当な大きさの領域に含まれる各画素値を重みづけして足し合わせるもので、4次元テンソルで表せる。
一方、プーリング層は、矩形のフィルタを入力画像内でずらして行き矩形内の最大値を取出して新しい画像を出力する最大値プーリングと、矩形内の値の平均値を採る平均値プーリングとがある。
本例では、図6(a),(b)に示すように、畳み込み層を9層(Conv1〜Conv9)とし、第3畳み込み層(Conv3)と、第4畳み込み層(Conv4)との間に第1プーリング層(Pooling1)を配置し、第6畳み込み層(Conv6)と、第7畳み込み層(Conv7)との間に第2プーリング層(Pooling2)を配置する構成とした。
map)を得るまでを例にとって説明する。
図7に示すように、入力画像(Input map)である高さ画像GH、形状画像GS、及び、風向き画像GDをそれぞれ64×64ピクセルとし、これら3個の入力画像に3×3のそれぞれ異なるフィルタ32個を、スライド幅1でかけ、各画像に対応する3枚の64×64ピクセルの画像を得た後、これら3枚の64×64ピクセルの画像を圧縮して32枚の64×64ピクセルの画像(以下、フィルタ後画像という)を得る。圧縮は、3枚の画像を重ね合わせ、同一箇所の画素の値を合計するか、バイアスを加えてから合計すればよい。なお、このときの4次元テンソルは、フィルタ数が32、入力画像枚数が3、各フィルタの大きさが3×3なので、W[32,3,3,3]と表わせる。4次元テンソルの各成分は、学習により獲得する。
また、フィルタのサイズを3×3としたのは、フィルタ後画像の画素数を入力画像と同じ64×64ピクセルにする(パディングサイズを1にする)ためである。
そして、各フィルタ後画像にバイアスを加えた後、活性化関数を適用することで、出力画像である第1の特徴画像(First Feature map)を出力する。
活性化関数としては、tanhやジグモイド関数などが用いられるが、本例では、tanhよりも高速でかつ高性能なReLU(Rectified Linear Unit)を用いた。なお、活性化関数への入力を、ミニバッチ単位で正規化(Batch Normalize)してもよい。
第2畳み込み層(Conv2)では、第1畳み込み層(Conv1)の出力画像である32枚の第1の特徴画像(1st Feature map)を入力画像(Input map)とし、これらの入力画像に3×3のそれぞれ異なるフィルタをかけて得られたフィルタ後画像に、第1畳み込み層(Conv1)と同様に、バイアスを加えた後、活性化関数としてReLUを適用することで得られる第2の特徴画像(2nd Feature map)を出力する。
第3畳み込み層(Conv3)でも、第2畳み込み層(Conv2)と同様にして、第3の特徴画像(3rd Feature map)を出力する。
本例では、図8に示すように、プーリングに3×3の矩形フィルタを、入力画像である第3の特徴画像(3rd Feature map)内で、スライド幅2でずらして行き、矩形内の最大の値を取出して新しい画像を出力する最大値プーリングを行った。
本例では、スライド幅2としたので、第1プーリング画像は、32枚の33×33ピクセルの画像となる。
なお、上述したように、平均値プーリングを行ってもよい。
第5畳み込み層(Conv5)では、第4畳み込み層(Conv4)の出力画像である32枚の第4の特徴画像(4th Feature map)を入力画像とし、これらの入力画像に3×3のそれぞれ異なるフィルタをかけて得られたフィルタ後画像に、バイアスを加えた後、活性化関数としてReLUを適用することで得られる第5の特徴画像(5th Feature map)を出力する。
第6畳み込み層(Conv6)でも、第5畳み込み層(Conv5)と同様にして、第6の特徴画像(6th Feature map)を出力する。
本例では、第2プーリング層(Pool2)にて、この第6の特徴画像に対して、3×3の矩形フィルタを、スライド幅2で最大値プーリングを行い、32枚の17×17のピクセルの画像(以下、第2プーリング画像という)を出力する。
第7畳み込み層(Conv7)では、第2プーリング画像(2nd Pooling map)を入力画像とし、これらの入力画像に3×3の個それぞれ異なるフィルタをかけて得られたフィルタ後画像に、第2畳み込み層(Conv2)と同様に、バイアスを加えた後、活性化関数としてReLUを適用することで得られる第7の特徴画像(4th Feature map)を出力する。入力画像である第2プーリング画像が32枚の17×17ピクセルの画像なので、第7の特徴画像も32枚の17×17ピクセルの画像となる。
第8畳み込み層(Conv8)では、第7の特徴画像を入力画像とし、第2畳み込み層と同様にして、第8の特徴画像(8th Feature map)を出力し、第9畳み込み層(Conv9)では、第8の特徴画像を入力画像とし、第9の特徴画像(9th Feature map)を出力する。
第9の特徴画像は、32枚の17×17ピクセルの画像で、この第9の特徴画像のデータが全結合層(L1)の入力データとなる。
第9の特徴画像は32枚の17×17ピクセルの画像なので、ベクトルの成分数は32×17×17=9248となる。
ここで、出力画像である風速分布画像GWの大きさを、入力画像(高さ画像GH、形状画像GS、及び、風向き画像GD)と同じ64×64ピクセルとすると、出力ベクトルの成分数は64×64=4096となる。
したがって、全結合層(L1)の出力であるベクトル成分を64×64ピクセルの画像に変換すれは、風向きを与えたときの、地上からの高さHにおける風速分布画像GWを得ることができる。
また、前記実施形態では、建物20の断面形状を一辺の長さLの正方形としたが、他の形状であってもよい。例えば、図9(a)に示すように、建物20の断面形状がL字状の場合には、断面形状を表わすパラメータa,b,c,dを入力すれば、図9(b)に示すような、L字状の断面形状を有する建物の形状画像GSを作成できる。
なお、建物の断面形状が、角柱や円柱のような単純な形状でない場合には、建物20の断面図をスキャナーなどで読み取り、この読み取ったデータと縮小率とを入力してもよい。
また、本発明は、上記のような単体建物だけでなく複数の建物が存在する場合においても風力分布を測定することが可能である。
13 風速分布画像作成手段、14 等高線図作成手段、15 表示手段、
15G 表示画面、20 建物。
Claims (2)
- 建物周辺の風速分布を推定する方法であって、
推定する箇所の高さ情報と形状情報と風向き情報とを入力するステップと、
前記入力された高さ情報と形状情報と風向き情報とから、推定する箇所の高さ情報を表わす高さ画像と、前記建物の断面形状情報を表わす形状画像と、風向き情報を表わす風向き画像とを作成するステップと、
畳み込みニューラルネットワークを用いて建物周辺の風速分布を推定するステップと、
を備え、
前記畳み込みニューラルネットワークの入力が、
前記高さ画像と前記形状画像と前記風向き画像で、
前記畳み込みニューラルネットワークの出力が、
建物周辺の風速比の分布を表わす画像で、
前記高さ画像が、前記推定する箇所の高さに対応する濃淡または色で表示された画像で、
前記形状画像が、建物部分と建物以外の部分とが色分けされた画像で、
前記風向き画像が、風上から風下に向かって濃度が変化するグレースケール画像であることを特徴とする建物周辺の風速分布の推定方法。 - 建物周辺の風速分布を推定する装置であって、
推定する箇所の高さ情報と形状情報と風向き情報とを入力する入力手段と、
前記入力された高さ情報と形状情報と風向き情報とから、
推定する箇所の高さ情報を表わす高さ画像と、前記建物の断面形状情報を表わす形状画像と、前記風向き情報を表わす風向き画像とを作成する入力画像作成手段と、
建物周辺の風速比の分布を表わす画像を作成する風速分布画像作成手段と、
前記作成された風速分布画像を表示する表示手段とを備え、
前記高さ画像が、前記推定する箇所の高さに対応する濃淡または色で表示された画像で、
前記形状画像が、建物部分と建物以外の部分とが色分けされた画像で、
前記風向き画像が、風上から風下に向かって濃度が変化するグレースケール画像であり、
前記風速分布画像作成手段が、
前記入力画像作成手段で作成された高さ画像と形状画像と前記風向き画像とを入力し、
建物周辺の風速比の分布を表わす画像を出力する畳み込みニューラルネットワークから構成されていることを特徴とする建物周辺の風速分布推定装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016135402A JP6780968B2 (ja) | 2016-07-07 | 2016-07-07 | 建物周辺の風速分布の推定方法及び建物周辺の風速分布推定装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016135402A JP6780968B2 (ja) | 2016-07-07 | 2016-07-07 | 建物周辺の風速分布の推定方法及び建物周辺の風速分布推定装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018004568A JP2018004568A (ja) | 2018-01-11 |
JP6780968B2 true JP6780968B2 (ja) | 2020-11-04 |
Family
ID=60948879
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016135402A Active JP6780968B2 (ja) | 2016-07-07 | 2016-07-07 | 建物周辺の風速分布の推定方法及び建物周辺の風速分布推定装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6780968B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111351665B (zh) * | 2018-12-24 | 2021-08-31 | 中国科学院沈阳计算技术研究所有限公司 | 基于emd和残差神经网络的滚动轴承故障诊断方法 |
JP7220083B2 (ja) * | 2019-01-23 | 2023-02-09 | 大成建設株式会社 | 風速分布推定装置及び風速分布推定方法 |
JP7374010B2 (ja) * | 2020-02-05 | 2023-11-06 | 大成建設株式会社 | 風速分布推定装置及び風速分布推定方法 |
JP7381384B2 (ja) * | 2020-03-31 | 2023-11-15 | 株式会社熊谷組 | 風速データの使用方法 |
JP7262694B1 (ja) * | 2022-09-15 | 2023-04-21 | 鹿島建設株式会社 | 流れ場予測装置、学習装置、流れ場予測プログラム及び学習プログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08184526A (ja) * | 1994-12-28 | 1996-07-16 | Fujita Corp | 構造物周辺における風速増加域予測方法およびその装置 |
JP2000337994A (ja) * | 1999-05-31 | 2000-12-08 | Takenaka Komuten Co Ltd | 流体解析用格子生成装置及び流体解析用格子生成プログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2002049298A (ja) * | 2001-08-17 | 2002-02-15 | Ohbayashi Corp | 風環境予測プログラムおよび風環境予測方法 |
JP6042274B2 (ja) * | 2013-06-28 | 2016-12-14 | 株式会社デンソーアイティーラボラトリ | ニューラルネットワーク最適化方法、ニューラルネットワーク最適化装置及びプログラム |
-
2016
- 2016-07-07 JP JP2016135402A patent/JP6780968B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018004568A (ja) | 2018-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6780968B2 (ja) | 建物周辺の風速分布の推定方法及び建物周辺の風速分布推定装置 | |
US11972550B2 (en) | Image processing apparatus and image processing method | |
CN107403197B (zh) | 一种基于深度学习的裂缝识别方法 | |
US11030355B2 (en) | Concurrent display systems and methods for aerial roof estimation | |
CN112465748B (zh) | 基于神经网络的裂缝识别方法、装置、设备及存储介质 | |
US8165350B2 (en) | Assessment of a view through the overlay of maps | |
US20190266435A1 (en) | Method and device for extracting information in histogram | |
US8170840B2 (en) | Pitch determination systems and methods for aerial roof estimation | |
CN108960135B (zh) | 基于高分辨遥感图像的密集舰船目标精确检测方法 | |
JP7048225B2 (ja) | 建物領域抽出用の学習済みモデル | |
JP7372536B2 (ja) | 演算プログラム、演算装置及び演算方法 | |
US10509959B2 (en) | Method and device for segmenting lines in line chart | |
JP7150468B2 (ja) | 構造物劣化検出システム | |
US20160063670A1 (en) | Dynamic Motion Path Blur Kernel | |
US20160063669A1 (en) | Dynamic Motion Path Blur User Interface | |
JP7374847B2 (ja) | 切羽評価システム、切羽評価学習システム、切羽評価方法、切羽評価学習方法、コンピュータプログラム | |
Kong et al. | Preserving our heritage: A photogrammetry-based digital twin framework for monitoring deteriorations of historic structures | |
JP7463186B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US9779484B2 (en) | Dynamic motion path blur techniques | |
CN105208244B (zh) | 一种基于网点扩大修正的屏幕软打样方法 | |
CN115272826A (zh) | 一种基于卷积神经网络的图像识别方法、装置及*** | |
CN110533713A (zh) | 桥梁裂缝宽度高精度测量方法及测量装置 | |
JP2006031688A (ja) | 画像加工装置、画像加工方法及び画像加工プログラム | |
JP7151742B2 (ja) | 画像変換装置、画像変換方法及び画像変換用コンピュータプログラム | |
Shinozaki et al. | Detection of deterioration of furnace walls using large-scale point-clouds |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190416 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200415 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200707 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200902 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201013 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201015 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6780968 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |