JP2021162437A - Wind velocity data use method - Google Patents

Wind velocity data use method Download PDF

Info

Publication number
JP2021162437A
JP2021162437A JP2020063161A JP2020063161A JP2021162437A JP 2021162437 A JP2021162437 A JP 2021162437A JP 2020063161 A JP2020063161 A JP 2020063161A JP 2020063161 A JP2020063161 A JP 2020063161A JP 2021162437 A JP2021162437 A JP 2021162437A
Authority
JP
Japan
Prior art keywords
image
wind speed
wind
pixel value
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020063161A
Other languages
Japanese (ja)
Other versions
JP7381384B2 (en
Inventor
優輝 加藤
Yuki Kato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kumagai Gumi Co Ltd
Original Assignee
Kumagai Gumi Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kumagai Gumi Co Ltd filed Critical Kumagai Gumi Co Ltd
Priority to JP2020063161A priority Critical patent/JP7381384B2/en
Publication of JP2021162437A publication Critical patent/JP2021162437A/en
Application granted granted Critical
Publication of JP7381384B2 publication Critical patent/JP7381384B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Aerodynamic Tests, Hydrodynamic Tests, Wind Tunnels, And Water Tanks (AREA)

Abstract

To provide a method for using wind velocity data in the training of deep learning that predicts a wind velocity distribution.SOLUTION: The present invention comprises: a loss function setting step for setting a loss function; an image conversion step for finding, from wind velocity data obtained in a wind tunnel test, a wind velocity distribution image where the pixel values of measurement point coordinates are made to be a value corresponding to wind velocity and the pixel values of coordinates of other than the measurement points are made to be a preliminarily set value; an image for control creation step for creating an error propagation control image where pixel values corresponding to the coordinates of measurement points of a teaching image are made to be 1 and the pixel values of coordinates corresponding to the coordinates of other than the measurement points are made to be 0; and a loss calculation step for calculating a loss from the teaching image, a prediction image, the error propagation control image and the loss function. In the loss calculation step, losses are calculated using the value derived by integrating the pixel values of the coordinates of the image for control for an error between the pixel values of coordinates of the teaching image and the pixel values of predicted values of deep learning.SELECTED DRAWING: Figure 3

Description

本発明は、深層学習を用いて建物周辺等の風速分布を予測する装置の学習方法に関するもので、特に、風速データを深層学習における学習データとして使用する方法に関する。 The present invention relates to a learning method of an apparatus for predicting a wind speed distribution around a building by using deep learning, and more particularly to a method of using wind speed data as learning data in deep learning.

近年、深層学習を用いて、建物周りの風速分布を予測する方法が提案されている。
具体的には、予め得られている構造物の形状データ及び風向きデータと、それに対応する風速分布のデータとをニューラルネットワークで学習させておき、このニューラルネットワークに風速分布を予測する建物の形状データと風向きデータ等を入力することで、建物周辺に生じる風速分布を予測する(例えば、特許文献1参照)。
In recent years, a method of predicting the wind speed distribution around a building has been proposed using deep learning.
Specifically, the shape data and wind direction data of the structure obtained in advance and the corresponding wind speed distribution data are trained by a neural network, and the shape data of the building for which the wind speed distribution is predicted by this neural network. By inputting the wind direction data and the like, the wind speed distribution generated around the building is predicted (see, for example, Patent Document 1).

特開2018−4568号公報JP-A-2018-4568

ところで、風速の予測方法としては、風洞実験や流体力学を用いた数値シミュレーション(以下、CFD解析という)などが挙げられるが、ニューラルネットワークの学習データとしては、主に、CFD解析より得られた風速分画像や風速比分布画像が用いられている。これは、風洞実験では、局所的に精度の良い結果が得られるが、計測点の数が少ないためである。
したがって、風速画像分布を学習データとした場合には、風洞実験で得られた結果は、学習データとして用いることができなかった。
しかしながら、風洞実験から得られた結果は数多く存在するので、これらのデータを学習データとして利用することができれば、風速分布画像の予測精度を向上させることができると考えられる。
By the way, examples of wind speed prediction methods include wind tunnel experiments and numerical simulations using fluid dynamics (hereinafter referred to as CFD analysis), but the training data for neural networks are mainly wind speeds obtained from CFD analysis. Computational fluid dynamics and wind speed ratio distribution images are used. This is because the wind tunnel experiment provides locally accurate results, but the number of measurement points is small.
Therefore, when the wind speed image distribution was used as the training data, the results obtained in the wind tunnel experiment could not be used as the training data.
However, since there are many results obtained from wind tunnel experiments, it is considered that the prediction accuracy of wind speed distribution images can be improved if these data can be used as learning data.

本発明は、従来の問題点に鑑みてなされたもので、風速データを、風速分布を予測する深層学習の学習に用いる方法を提供することを目的とする。 The present invention has been made in view of the conventional problems, and an object of the present invention is to provide a method of using wind speed data for learning deep learning for predicting wind speed distribution.

本発明は、風速データを、深層学習により風速分布を予測する際の学習データとして用いる方法であって、前記風速データが、風洞実験で得られた風速データであり、前記風速データを用いて作成した教師画像の各座標の画素値と、深層学習により予測された予測画像の各座標の画素値である予測値と、予め設定された損失関数とから、前記教師画像と前記予測画像との誤差を算出する際に、前記教師画像の風洞実験の計測点以外の座標の画素値と前記予測画像の前記計測点以外の座標の予測値の画素値との誤差分を排除することを特徴とする。
これにより、風速データとして、風洞実験で得られた風速データを用いた場合には、風洞実験が行われた座標(計測点)のみの誤差について学習することができるので、風洞実験で得られた風速データを、CFD解析のデータと全く同じ形式で学習を行うことができる。すなわち、既存の手法では学習データとすることのできなかった風洞実験により得られたデータを学習データとして扱うことが可能となった。その結果、学習データを大幅に増加させることができるので、風速分布画像の予測精度を向上させることができる。
なお、深層学習は、入力層と出力層とを含む、層数が4層以上の畳み込みニューラルネットワークを指す。また、風速分布は、特定位置の風速を基準とした風速比の分布である風速比分布も含む。
また、損失関数を設定する損失関数設定ステップと、風洞実験で得られた風速データから、計測点の座標の画素値を風速に応じた値とし、計測点以外の座標の画素値を予め設定した画素値とした風速分布画像を求めてこれを学習データの教師画像とする画像変換ステップと、前記教師画像の計測点の座標に対応する画素値を1とし、前記計測点以外の座標に対応する座標の画素値を0とした誤差伝播制御画像を作成する制御用画像作成ステップと、前記教師画像と、前記予測画像と、前記誤差伝播制御画像と、前記損失関数とから、誤差を算出する誤差算出ステップと、を備え、前記誤差算出ステップでは、前記教師画像の座標の画素値と深層学習の予測値の画素値との誤差に、前記制御用画像の当該座標の画素値を積算した値を用いて、前記誤差を算出するようにしたので、精度の高い風速分布予測を行うことができる。
また、前記制御用画像作成ステップでは、前記計測点周りの座標である周辺座標の画素値を、前記計測点と周辺座標との距離に応じた、0よりも大きくかつ1未満の値としたので、風洞実験による実測値に加えて、計測点周りの推定値についても誤差の算出に使用することができる。したがって、学習データを大幅に増加させることができ、風速分布画像の予測精度を更に向上させることができる。
The present invention is a method of using wind velocity data as learning data when predicting a wind velocity distribution by deep learning. The wind velocity data is wind velocity data obtained in a wind tunnel experiment, and is created by using the wind velocity data. The error between the teacher image and the predicted image from the pixel value of each coordinate of the teacher image, the predicted value which is the pixel value of each coordinate of the predicted image predicted by deep learning, and the preset loss function. Is characterized by eliminating the difference between the pixel value of the coordinates other than the measurement point of the wind tunnel experiment of the teacher image and the pixel value of the predicted value of the coordinate other than the measurement point of the predicted image. ..
As a result, when the wind speed data obtained in the wind tunnel experiment is used as the wind speed data, it is possible to learn about the error only in the coordinates (measurement points) where the wind tunnel experiment was performed, so that it was obtained in the wind tunnel experiment. The wind speed data can be trained in exactly the same format as the CFD analysis data. That is, it has become possible to handle the data obtained by the wind tunnel experiment, which could not be used as learning data by the existing method, as learning data. As a result, the training data can be significantly increased, so that the prediction accuracy of the wind speed distribution image can be improved.
Note that deep learning refers to a convolutional neural network having four or more layers, including an input layer and an output layer. The wind speed distribution also includes a wind speed ratio distribution, which is a distribution of wind speed ratios based on the wind speed at a specific position.
In addition, from the loss function setting step for setting the loss function and the wind velocity data obtained in the wind tunnel experiment, the pixel values of the coordinates of the measurement points are set to the values according to the wind velocity, and the pixel values of the coordinates other than the measurement points are set in advance. An image conversion step of obtaining a wind velocity distribution image as a pixel value and using this as a teacher image of training data, and setting the pixel value corresponding to the coordinates of the measurement points of the teacher image to 1 and corresponding to coordinates other than the measurement points. An error of calculating an error from the control image creation step of creating an error propagation control image in which the pixel value of the coordinates is 0, the teacher image, the prediction image, the error propagation control image, and the loss function. A calculation step is provided, and in the error calculation step, a value obtained by integrating the pixel value of the coordinate of the control image with the error between the pixel value of the coordinate of the teacher image and the pixel value of the predicted value of deep learning is added. Since the error is calculated by using the above, it is possible to predict the wind velocity distribution with high accuracy.
Further, in the control image creation step, the pixel value of the peripheral coordinates, which is the coordinates around the measurement point, is set to a value larger than 0 and less than 1 according to the distance between the measurement point and the peripheral coordinates. , In addition to the measured values from the wind tunnel experiment, the estimated values around the measurement points can also be used to calculate the error. Therefore, the training data can be significantly increased, and the prediction accuracy of the wind speed distribution image can be further improved.

また、本発明は、風速データを、深層学習により風速分布を予測する際の学習データとして用いる方法であって、前記風速データが、風洞実験で得られた風速データと、流体力学を用いた数値シミュレーション解析で得られた風速データの両方であり、前記風速データを用いて作成した教師画像の各座標の画素値と、深層学習により予測された予測画像の各座標の画素値である予測値と、予め設定された損失関数とから、前記教師画像と前記予測画像との誤差を算出する際に、前記風速データが前記風洞実験で得られた風速データである場合には、前記教師画像の風洞実験の計測点以外の座標の画素値と前記予測画像の前記計測点以外の座標の予測値の画素値との誤差分を排除し、前記風速データが前記数値シミュレーション解析で得られた風速データである場合には、前記教師画像の前記数値シミュレーション解析の計算値の誤差分を全て使用することを特徴とする。
このように、風洞実験で得られた風速データと、流体力学を用いた数値シミュレーション解析で得られた風速データの両方を学習データとして使用すれば、学習データの数が更に増加するので、風速分布画像の予測精度を更に向上させることができる。
Further, the present invention is a method of using wind velocity data as learning data when predicting wind velocity distribution by deep learning, and the wind velocity data is a numerical value using fluid dynamics and wind velocity data obtained in a wind tunnel experiment. Both of the wind velocity data obtained by the simulation analysis, the pixel value of each coordinate of the teacher image created using the wind velocity data, and the predicted value which is the pixel value of each coordinate of the predicted image predicted by deep learning. When calculating the error between the teacher image and the predicted image from the preset loss function, if the wind velocity data is the wind velocity data obtained in the wind tunnel experiment, the wind cavity of the teacher image. The difference between the pixel value of the coordinates other than the measurement point of the experiment and the pixel value of the predicted value of the coordinate other than the measurement point of the predicted image is excluded, and the wind velocity data is the wind velocity data obtained by the numerical simulation analysis. In some cases, it is characterized in that all the errors of the calculated values of the numerical simulation analysis of the teacher image are used.
In this way, if both the wind speed data obtained in the wind tunnel experiment and the wind speed data obtained in the numerical simulation analysis using fluid dynamics are used as training data, the number of training data will be further increased, so that the wind speed distribution The image prediction accuracy can be further improved.

なお、前記発明の概要は、本発明の必要な全ての特徴を列挙したものではなく、これらの特徴群のサブコンビネーションもまた、発明となり得る。 The outline of the present invention does not list all the necessary features of the present invention, and a subcombination of these feature groups can also be an invention.

本実施の形態に係わる風速分布の推定装置を示す図である。It is a figure which shows the estimation apparatus of the wind speed distribution which concerns on this embodiment. 教師画像と誤差伝播用画像の一例を示す図である。It is a figure which shows an example of a teacher image and an image for error propagation. 風洞実験で得られた風速データの使用方法を示すフローチャートである。It is a flowchart which shows the usage of the wind speed data obtained in the wind tunnel experiment. 風洞実験で得られた風速データを用いた教師画像の一例を示す図である。It is a figure which shows an example of the teacher image using the wind speed data obtained in the wind tunnel experiment.

図1は、本実施の形態に係る風速分布の推定装置10の構成を示す図で、同図において、11は入力手段、12は入力画像作成手段、13は風速分布画像作成手段、14は風速データ入力手段、15は教師画像作成手段、16は制御用画像作成手段、17は誤差算出手段、18は表示手段である。
入力手段11と風速データ入力手段14とは、例えば、キーボードやスキャナー等が用いられる。また、入力画像作成手段12、風速分布画像作成手段13、及び、教師画像作成手段15〜誤差算出手段17までの各手段は、ROMやRAMなどの記憶装置とマイクロコンピュータのプログラムとから構成される。
入力手段11は、風速分布を推定する箇所の道路や建物の形状など情報(以下、地図情報という)と、風向きの情報とを入力し、入力画像作成手段12に出力する。
入力画像作成手段12は、入力された地図情報を画像に変換した建物群画像Ginを作成するとともに、風向きの情報から、風向きが予め設定された所定の方向(ここでは、北風)になるように建物群画像を回転させて、風向き指定建物群画像を、風速分布画像作成手段13に出力する。
風速分布画像作成手段13は、2層以上の中間層を有する畳み込みニューラルネットワーク(以下、ニューラルネットワークという)を備えた風速データ生成部13aと、風速データ生成部13aで生成された風速の予測値から、風速分布画像を作成する風速分布画像作成部13bとを備える。
風速データ生成部13aでは、風向き指定建物群画像を、ニューラルネットワークに入力し、地図上の座標(xi,yj)に対応する建物群画像の画素(以下、ピクセルという)ごとに、ニューラルネットワークの出力値である風速の予測値Zs(xi,yj)を出力し、風速分布画像作成部13bは、風速の予測値Zs(xi,yj)を風速分布画像の各ピクセルの画素値とした風速分布画像を作成して、表示手段18に送る。
なお、風向き指定建物群画像の建物20に対応するピクセルの座標は、ニューラルネットワークには入力しないものとする。
風速分布画像としては、例えば、当該ピクセルの風速の予測値が0であれば白(画素値;255)とし、予め設定された最大風速(例えば、30m/s)であれば黒(画素値;0)とする256階調のグレースケール画像、すなわち、画素値が0〜255のうちの風速の予測値に相当する濃淡を有する画像や、風速の予測値が2m/s以下であれば空色、25〜30m/sであれば赤にするなど、風速の予測値に応じた色付けした画像であってもよい。要は、画像の各ピクセルに、風速の予測値に応じた数値を持たせればよい。例えば、カラー画像なら、RGBの各階調を与えなくても、空色には1、赤色には7などの数値を画素値として持たせればよい。
本例では、風速分布画像を濃淡画像とした。なお、階調は256階調である必要はなく、2階調以上であればよい。
表示手段18は、風速分布画像作成手段13で作成された風速分布画像Goutを表示画面18Gに表示する。
FIG. 1 is a diagram showing a configuration of a wind speed distribution estimation device 10 according to the present embodiment. In the figure, 11 is an input means, 12 is an input image creating means, 13 is a wind speed distribution image creating means, and 14 is a wind speed. A data input means, 15 is a teacher image creating means, 16 is a control image creating means, 17 is an error calculating means, and 18 is a display means.
As the input means 11 and the wind speed data input means 14, for example, a keyboard, a scanner, or the like is used. Further, each of the input image creating means 12, the wind speed distribution image creating means 13, and the teacher image creating means 15 to the error calculating means 17 is composed of a storage device such as a ROM or RAM and a microcomputer program. ..
The input means 11 inputs information such as the shape of a road or a building where the wind speed distribution is estimated (hereinafter referred to as map information) and wind direction information, and outputs the information to the input image creating means 12.
The input image creating means 12 creates a building group image G in by converting the input map information into an image, and makes the wind direction a predetermined direction (here, north wind) set in advance from the wind direction information. The building group image is rotated to output the wind direction designated building group image to the wind speed distribution image creating means 13.
The wind speed distribution image creating means 13 is based on a wind speed data generation unit 13a having a convolutional neural network having two or more intermediate layers (hereinafter referred to as a neural network) and a wind speed predicted value generated by the wind speed data generation unit 13a. A wind speed distribution image creating unit 13b for creating a wind speed distribution image is provided.
The wind speed data generator 13a, the wind direction designated buildings image, input to the neural network, on the map coordinates (x i, y j) of pixels of the buildings image corresponding to the (hereinafter referred to as pixels) for each neural network The predicted wind speed Z s (x i , y j ), which is the output value of, is output, and the wind speed distribution image creation unit 13b outputs the predicted wind speed Z s (x i , y j ) to each pixel of the wind speed distribution image. A wind speed distribution image with the pixel value of is created and sent to the display means 18.
It is assumed that the coordinates of the pixels corresponding to the building 20 in the wind direction designated building group image are not input to the neural network.
As the wind speed distribution image, for example, if the predicted value of the wind speed of the pixel is 0, it is white (pixel value; 255), and if it is the preset maximum wind speed (for example, 30 m / s), it is black (pixel value; A grayscale image of 256 gradations set to 0), that is, an image having a shade corresponding to the predicted value of the wind speed among 0 to 255, and sky blue if the predicted value of the wind speed is 2 m / s or less. The image may be colored according to the predicted value of the wind speed, such as making it red if it is 25 to 30 m / s. The point is that each pixel of the image may have a numerical value corresponding to the predicted value of the wind speed. For example, in the case of a color image, a numerical value such as 1 for sky blue and 7 for red may be given as pixel values without giving each gradation of RGB.
In this example, the wind speed distribution image is used as a shading image. The gradation does not have to be 256 gradations, and may be two or more gradations.
The display means 18 displays the wind speed distribution image G out created by the wind speed distribution image creating means 13 on the display screen 18G.

風速データ入力手段14は、風洞実験を行った箇所(以下、計測点という)を含むの道路や建物20の形状など情報(以下、計測地図情報という)と、計測点の値である風速の実験値を教師画像作成手段15に出力する。なお、風速を計測したときの風向きは予め設定した方向(ここでは、北風)とする。
教師画像作成手段15は、図2(a)に示すような、入力された地図情報を画像に変換した教師用建物群画像G1を作成するとともに、この教師用建物群画像G1を風速分布画像に変換した画像である教師画像G2を作成する。具体的には、計測点の座標P(x、y)を含むピクセルの画素値を、上記の風速分布画像Goutの画素値と同様に、計測された風速に対応する値とし、計測点以外の座標の画素値を予め設定した画素値(例えば、255)とした画像を作成し、これを教師画像とする。
図2(b)は教師画像の一例を示す図で、教師画像の各ピクセルの濃淡は、風速が大きいほど濃く、風速が小さいほど淡くなる。また、計測点以外の座標を含むピクセルは、白色(画素値;255)で表される。
制御用画像作成手段16は、ニューラルネットワークの学習時おける誤差の伝播を制御する制御用画像としての誤差伝播制御画像を作成する。
図2(c)に示すように、誤差伝播制御画像は、教師画像と同じサイズで、かつ、教師画像の計測点の座標に対応する画素値を1とし、計測点以外の座標に対応する座標の画素値を0とした画像である。
The wind speed data input means 14 includes information (hereinafter referred to as measurement map information) such as the shape of the road or building 20 including the location where the wind tunnel experiment was performed (hereinafter referred to as measurement point), and the wind speed experiment which is the value of the measurement point. The value is output to the teacher image creating means 15. The wind direction when the wind speed is measured is a preset direction (here, the north wind).
The teacher image creating means 15 creates a teacher building group image G 1 obtained by converting the input map information into an image as shown in FIG. 2A, and distributes the teacher building group image G 1 in a wind velocity distribution. Create a teacher image G 2 which is an image converted into an image. Specifically, the pixel value of the pixel including the coordinates P (x, y) of the measurement point is set to a value corresponding to the measured wind velocity in the same manner as the pixel value of the above-mentioned wind velocity distribution image G out, and is other than the measurement point. An image is created in which the pixel value of the coordinates of is set to a preset pixel value (for example, 255), and this is used as a teacher image.
FIG. 2B is a diagram showing an example of the teacher image, and the shade of each pixel of the teacher image becomes darker as the wind speed increases and becomes lighter as the wind speed decreases. Further, the pixel including the coordinates other than the measurement point is represented by white (pixel value; 255).
The control image creating means 16 creates an error propagation control image as a control image that controls the propagation of errors during learning of the neural network.
As shown in FIG. 2C, the error propagation control image has the same size as the teacher image, and the pixel value corresponding to the coordinates of the measurement points of the teacher image is 1, and the coordinates correspond to the coordinates other than the measurement points. It is an image in which the pixel value of is 0.

誤差算出手段17は、損失関数修正部17aと誤差算出部17bとを備える。
損失関数修正部17aは、ニューラルネットワークの学習時に使用する損失関数に、制御用画像作成手段16で作成した誤差伝播制御画像の画素値を適用するように修正するもので、例えば、損失関数として、平均二乗誤差(Mean Square Error)を用いた場合、損失関数は、以下の式(1)のように修正される。

Figure 2021162437
ここで、Nはバッチサイズであり、Zrk(xi,yj)は、k番目のバッチの教師画像の座標(xi,yj)に対応するピクセルの画素値(正解値)であり、Zsk(xi,yj)は、ニューラルネットワークの出力値である、予測画像の座標(xi,yj)に対応するピクセルの画素値である。すなわち、Zsk(xi,yj)は、座標(xi,yj)における風速の予測値の大きさに対応する画素値(予測値)である(k=1〜N)。
また、Ak(xi,yj)は、誤差伝播制御画像の座標(xi,yj)に対応するピクセルの画素値で、バッチ番号kごとに設定される。上記したように、Ak(xi,yj)は、計測点では1、計測点以外では0である。
誤差算出部17bは、上記の式(1)を用いて、予測値と正解値との誤差を算出する。上記の式(1)では、座標(xi,yj)が計測点である場合には、Ak(xi,yj)=1であるので、(Zrk−Zsk2×Ak=は(Zrk−Zsk2となるが、座標(xi,yj)が計測点以外の点である場合には、Ak(xi,yj)=0であるので、(Zrk−Zsk2×Ak=0となる。
このように、本例では、損失関数として、上記の式(1)のような修正した損失関数を用いることで、風洞実験が行なわれた座標(xi,yj)については、誤差が伝播されるが、それ以外の座標では誤差が伝播されない。
したがって、風洞実験が行なわれた座標(xi,yj)のみの誤差について学習できるだけでなく、流体解析により得られたデータと全く同じ形式で学習することができる。
誤差算出手段17は、上記式(1)を用いて座標(xi,yj)における誤差MSE’ (xi,yj)を算出し、この誤差MSE’(x,y)を、風速分布画像作成手段13のニューラルネットワークに戻す。
ニューラルネットワークでは、この、誤差MSE’(xi,yj)を最小にするように、畳み込みのフィルタ等の画像処理条件を修正する。
なお、損失関数として、平均絶対値誤差や平均二乗対数誤差などの、他の損失関数を用いてもよい。
ニューラルネットワークの学習には、風速分布画像作成手段13〜誤差算出手段17までの各手段が使用され、風速分布画像の作成には、入力手段11〜風速分布画像作成手段13までの各手段、及び、表示手段18が使用される。 The error calculation means 17 includes a loss function correction unit 17a and an error calculation unit 17b.
The loss function correction unit 17a corrects the loss function used when learning the neural network so as to apply the pixel value of the error propagation control image created by the control image creating means 16, for example, as a loss function. When the mean square error is used, the loss function is modified by the following equation (1).
Figure 2021162437
Here, N is the batch size, and Z rk (x i , y j ) is the pixel value (correct answer value) of the pixel corresponding to the coordinates (x i , y j ) of the teacher image of the kth batch. , Z sk (x i, y j) is the output value of the neural network, the pixel value of the corresponding pixel to the coordinates of the predicted image (x i, y j). That is, Z sk (x i , y j ) is a pixel value (predicted value) corresponding to the magnitude of the predicted value of the wind speed at the coordinates (x i , y j) (k = 1 to N).
Further, Ak (x i , y j ) is a pixel value of a pixel corresponding to the coordinates (x i , y j ) of the error propagation control image, and is set for each batch number k. As described above, Ak (x i , y j ) is 1 at the measurement point and 0 at other than the measurement point.
The error calculation unit 17b calculates the error between the predicted value and the correct answer value using the above equation (1). In the above equation (1), when the coordinates (x i , y j ) are the measurement points, A k (x i , y j ) = 1, so (Z rk −Z sk ) 2 × A. k = is (Z rk −Z sk ) 2 , but when the coordinates (x i , y j ) are points other than the measurement point, Ak (x i , y j ) = 0, so the (Z rk -Z sk) 2 × a k = 0.
Thus, in this example, as a loss function, by using the modified loss function, such as in the above formula (1), wind tunnel experiments were conducted coordinates (x i, y j) for the error propagation However, the error is not propagated at other coordinates.
Therefore, not only can the error of only the coordinates (x i , y j ) where the wind tunnel experiment was performed be learned, but also the data obtained by the fluid analysis can be learned in exactly the same format.
Error calculation means 17, coordinate with the formula (1) (x i, y j) in the error MSE '(x i, y j ) is calculated, this error MSE' (x, y) of the wind speed distribution Return to the neural network of the image creating means 13.
The neural network, this error MSE '(x i, y j ) to minimize, to correct the image processing conditions such as the convolution of the filter.
As the loss function, another loss function such as an average absolute value error or an average root mean square error may be used.
Each of the means from the wind speed distribution image creating means 13 to the error calculating means 17 is used for learning the neural network, and each means from the input means 11 to the wind speed distribution image creating means 13 and each means for creating the wind speed distribution image. , Display means 18 is used.

次に、風洞実験で得られた風速データを深層学習の学習データとして用いる方法について、図3のフローチャートを参照して説明する。
まず、風速データ入力手段14に、道路や建物20の形状など情報と計測点における風速の実験値を入力(ステップS10)し、教師画像作成手段15にて、教師画像G2kを作成する(ステップS11)。教師画像G2kは、図2(b)に示した教師画像G2と同様に、計測点の座標(xi、yj)を含むピクセルの画素値を、計測された風速に対応する値とし、計測点以外の座標の画素値を0とした濃淡画像である。なお、教師画像G2kは、バッチ番号ごとに作成される(k=1〜N;Nはバッチサイズ)。
次に、制御用画像作成手段16にて、教師画像G2kの計測点(xi,yj)の座標に対応する画素値を1とし、計測点以外の座標に対応する座標の画素値を0とした誤差伝播制御画像を作成する(ステップS12)。
次に、ニューラルネットワークの学習時に使用する損失関数を上記の式(1)のように修正(ステップS13)した後、教師画像の座標G2(xi,yj)に対応するピクセルの画素値Zr(xi,yj)と、ニューラルネットワークの予測値である、座標(xi,yj)に対応するピクセルの画素値Zsk(xi,yj)と、誤差伝播制御画像の座標(xi,yj)に対応するピクセルの画素値Ak(xi,yj)とを、上記式(1)に代入して、誤差MSE’(x,y)を算出(ステップS14)し、この誤差MSE’ (xi,yj)を、風速分布画像作成手段13のニューラルネットワークに戻す。
最後に、誤差MSE’ (xi,yj)が最小になるように、畳み込みのフィルタ等の処理条件を修正する(ステップS15)ことで、ニューラルネットワークを完成させる。
なお、上記学習は、複数の教師画像(正解画像)を用い、誤差MSE’ (xi,yj)が収束するまで行うことが好ましい。
Next, a method of using the wind speed data obtained in the wind tunnel experiment as learning data for deep learning will be described with reference to the flowchart of FIG.
First, information such as the shape of the road or building 20 and the experimental value of the wind speed at the measurement point are input to the wind speed data input means 14 (step S10), and the teacher image G 2k is created by the teacher image creation means 15 (step). S11). Similar to the teacher image G 2 shown in FIG. 2B, the teacher image G 2k is measured by setting the pixel value of the pixel including the coordinates (xi, yj) of the measurement point as the value corresponding to the measured wind speed. It is a shading image in which the pixel value of the coordinates other than the point is 0. The teacher image G 2k is created for each batch number (k = 1 to N; N is the batch size).
Next, in control image creation unit 16, the measurement points of the teacher image G 2k (x i, y j ) and 1 pixel value corresponding to the coordinates of the pixel values of coordinates corresponding to the coordinates other than the measurement point An error propagation control image set to 0 is created (step S12).
Next, modified as loss function the above equation to be used when the neural network learning (1) (step S13) and then, the coordinates G 2 (x i, y j ) of the teacher image the pixel values of pixels corresponding to Z r (x i , y j ), the pixel value Z sk (x i , y j ) of the pixel corresponding to the coordinate (x i , y j ), which is the predicted value of the neural network, and the error propagation control image. The pixel value Ak (x i , y j ) of the pixel corresponding to the coordinates (x i , y j ) is substituted into the above equation (1) to calculate the error MSE'(x, y) (step S14). ), And this error MSE'(x i , y j ) is returned to the neural network of the wind velocity distribution image creating means 13.
Finally, the error MSE '(x i, y j ) as is minimized, to modify the process conditions such as a filter convolution (step S15) that is, to complete the neural network.
The above learning, using a plurality of teacher images (correct images) is preferably carried out until the error MSE '(x i, y j ) converges.

図1に示した風速分布画像Goutの作成手順は、以下の通りである。
なお、ニューラルネットワークの学習は完了しているものとする。
まず、風速分布を推定する箇所の道路や建物の形状など情報と風向きの情報とを入力し、入力された情報を画像に変換した建物群画像Ginを作成する。
次に、上記の学習が完了したニューラルネットワークを用いて、各座標(xi,yj)の風速の予測値Zs(xi,yj)を求める。
そして、この求められた風速の予測値Zs(xi,yj)を、風速分布画像の各ピクセルの画素値とした風速分布画像Goutを作成した後、作成された風速分布画像Goutを表示手段18の表示画面18Gに表示する。
The procedure for creating the wind speed distribution image G out shown in FIG. 1 is as follows.
It is assumed that the learning of the neural network has been completed.
First, information such as the shape of a road or a building where the wind speed distribution is estimated and information on the wind direction are input, and a building group image G in is created by converting the input information into an image.
Next, using a neural network in which the learning has been completed, the coordinates (x i, y j) the predicted value of the wind speed Z s (x i, y j) obtained.
Then, the predicted value Z s (x i, y j ) of the thus determined wind speed, and after creating the velocity distribution image G out that the pixel value of each pixel of the velocity distribution image, created velocity distribution image G out Is displayed on the display screen 18G of the display means 18.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は前記実施の形態に記載の範囲には限定されない。前記実施の形態に、多様な変更または改良を加えることが可能であることが当業者にも明らかである。そのような変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲から明らかである。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the embodiments. It will be apparent to those skilled in the art that various changes or improvements can be made to the above embodiments. It is clear from the claims that such modified or modified forms may also be included in the technical scope of the invention.

例えば、前記実施形態では、計測点以外の座標の画素値を所定値とするとともに、誤差伝播制御画像の座標(xi,yj)に対応するピクセルの画素値A(xi,yj)を、計測点では1、計測点以外では0としたが、計測点の風速から、計測点以外の座標で、かつ、計測点周りの座標(xi,yj)の画素値を推測してもよい。
例えば、図4(a)に示すように、教師用建物群画像G1において、風速値が計測点P(xi,yj)を中心にガウス分布しているとすると、計測点P(xi,yj)の周りの座標(xi’,yj’)に対応するピクセルの画素値は、計測点P(xi,yj)の画素値をVijとしたときに、Vi’j’=p・Vijとなる(0<p<1)。
したがって、教師画像G2の各ピクセルの濃淡分布も、図4(b)に示すように、計測点の周辺のピクセルでも濃淡がつけられた画像となる。
また、新たに濃淡がつけられたピクセルは、計測値を持っているので、図4(c)に示すように、誤差伝播制御画像G3の座標(xi’,yj’)に対応するピクセルの画素値Ak(xi’,yj’)も1とする必要がある。
このように、計測点周りの座標(xi’,yj’)について風速を推定し、この推定された風速も学習データとして使用すれば、風速分布の予測精度を向上させることができる。
また、前記実施形態では、建物20のある区域の風速分布を求めたが、本発明は、滑走路などの、建物がない区域の風速分布を求めることも可能である。
For example, in the above embodiment, the pixel values of the coordinates other than the measurement point with a predetermined value, the coordinates of the error propagation control image (x i, y j) pixel values of pixels corresponding to A (x i, y j) Was set to 1 at the measurement point and 0 at other than the measurement point, but the pixel value of the coordinates other than the measurement point and the coordinates (x i , y j) around the measurement point is estimated from the wind speed of the measurement point. May be good.
For example, as shown in FIG. 4 (a), in teacher buildings image G 1, wind speed measurement point P (x i, y j) When is Gaussian distributed around the measurement point P (x i, coordinates around the y j) (x i ', y j' pixel values of pixels corresponding to), the measurement point P (x i, the pixel value of y j) is taken as V ij, V i 'j' = p · V ij (0 <p <1).
Therefore, as shown in FIG. 4B, the shading distribution of each pixel of the teacher image G 2 is also a shading image even in the pixels around the measurement point.
In addition, since the newly shaded pixels have measured values, they correspond to the coordinates (x i' , y j' ) of the error propagation control image G 3 as shown in FIG. 4 (c). The pixel value Ak (x i' , y j' ) of the pixel must also be 1.
In this way, if the wind speed is estimated for the coordinates (x i' , y j' ) around the measurement point and this estimated wind speed is also used as training data, the prediction accuracy of the wind speed distribution can be improved.
Further, in the above-described embodiment, the wind speed distribution in the area where the building 20 is located is obtained, but the present invention can also obtain the wind speed distribution in the area where there is no building such as a runway.

また、前記実施形態では、風洞実験で得られた風速データを風速分布を予測する深層学習の学習データとして用いたが、風洞実験の風速データから作成した風速分布画像とCFD解析より得られた風速データから作成した風速分画像の両方を教師画像としてもよい。
CFD解析で得られた風速データを教師布画像とする場合、風向き指定建物群画像の建物20に対応するピクセルの座標以外の座標には、全て、CFD解析で得られた風速の計算値が与えられているので、誤差伝播制御画像の座標(xi,yj)に対応するピクセルの画素値Ak(xi,yj)を全て1とすればよい。すなわち、CFD解析で得られた風速データから作成したを風速分布画像を教師画像とした場合には、CFD解析の計算値の誤差分を全て使用して、誤差MSE’ (xi,yj)を算出すればよい。
なお、損失関数を修正せず、従来の損失関数を用いて誤差を算出してもよい。
Further, in the above embodiment, the wind speed data obtained in the wind cave experiment was used as learning data for deep learning to predict the wind speed distribution, but the wind speed distribution image created from the wind speed data in the wind cave experiment and the wind speed obtained from the CFD analysis. Both wind speed images created from the data may be used as teacher images.
When the wind speed data obtained by CFD analysis is used as a teacher cloth image, the calculated value of wind speed obtained by CFD analysis is given to all the coordinates other than the pixel coordinates corresponding to the building 20 in the wind direction specified building group image. Therefore, all the pixel values Ak (x i , y j ) of the pixels corresponding to the coordinates (x i , y j ) of the error propagation control image may be set to 1. That is, when the air speed distribution image created from wind data obtained by the CFD analysis was teacher image, using all the error of the calculated value of the CFD analysis, error MSE '(x i, y j ) Should be calculated.
The error may be calculated using the conventional loss function without modifying the loss function.

10 風速分布の推定装置、11 入力手段、12 入力画像作成手段、
13 風速分布画像作成手段、13a 風速データ生成部、
13b 風速分布画像作成部、14 風速データ入力手段、15 教師画像作成手段、
16 制御用画像作成手段、17 誤差算出手段、17a 損失関数修正部、
17b 誤差算出部、18 表示手段、18G 表示画面、20 建物。
10 Wind speed distribution estimation device, 11 input means, 12 input image creation means,
13 Wind speed distribution image creation means, 13a Wind speed data generator,
13b Wind speed distribution image creation unit, 14 Wind speed data input means, 15 Teacher image creation means,
16 Control image creation means, 17 Error calculation means, 17a Loss function correction unit,
17b error calculation unit, 18 display means, 18G display screen, 20 buildings.

Claims (4)

風速データを、深層学習により風速分布を予測する際の学習データとして用いる方法であって、
前記風速データが、風洞実験で得られた風速データであり、
前記風速データを用いて作成した教師画像の各座標の画素値と、深層学習により予測された予測画像の各座標の画素値である予測値と、予め設定された損失関数とから、前記教師画像と前記予測画像との誤差を算出する際に、
前記教師画像の風洞実験の計測点以外の座標の画素値と前記予測画像の前記計測点以外の座標の予測値の画素値との誤差分を排除することを特徴とする風速データの使用方法。
It is a method of using wind speed data as learning data when predicting the wind speed distribution by deep learning.
The wind speed data is the wind speed data obtained in the wind tunnel experiment.
From the pixel value of each coordinate of the teacher image created using the wind velocity data, the predicted value which is the pixel value of each coordinate of the predicted image predicted by deep learning, and the preset loss function, the teacher image When calculating the error between the predicted image and the predicted image
A method of using wind speed data, which comprises eliminating an error between a pixel value of a coordinate other than the measurement point of the wind tunnel experiment of the teacher image and a pixel value of a predicted value of a coordinate other than the measurement point of the predicted image.
損失関数を設定する損失関数設定ステップと、
風洞実験で得られた風速データから、計測点の座標の画素値を風速に応じた値とし、計測点以外の座標の画素値を予め設定した画素値とした風速分布画像を求めてこれを学習データの教師画像とする画像変換ステップと、
前記教師画像の計測点の座標に対応する画素値を1とし、前記計測点以外の座標に対応する座標の画素値を0とした誤差伝播制御画像を作成する制御用画像作成ステップと、
前記教師画像と、前記予測画像と、前記誤差伝播制御画像と、前記損失関数とから、誤差を算出する誤差算出ステップとを備え、
前記誤差算出ステップでは、
前記教師画像の座標の画素値と深層学習の予測値の画素値との誤差に、前記制御用画像の当該座標の画素値を積算した値を用いて、前記誤差を算出することを特徴とする請求項1に記載の風速データの使用方法。
Loss function setting step to set the loss function and
From the wind velocity data obtained in the wind cave experiment, the pixel value of the coordinates of the measurement point is set to the value according to the wind speed, and the pixel value of the coordinates other than the measurement point is set to the preset pixel value to obtain the wind velocity distribution image and learn this. Image conversion step to make data teacher image,
A control image creation step of creating an error propagation control image in which the pixel value corresponding to the coordinates of the measurement point of the teacher image is 1 and the pixel value of the coordinates corresponding to the coordinates other than the measurement point is 0.
It includes an error calculation step of calculating an error from the teacher image, the prediction image, the error propagation control image, and the loss function.
In the error calculation step,
It is characterized in that the error is calculated by using the value obtained by integrating the pixel value of the coordinate of the teacher image and the pixel value of the predicted value of deep learning with the pixel value of the coordinate of the control image. The method of using the wind velocity data according to claim 1.
前記制御用画像作成ステップでは、前記計測点周りの座標である周辺座標の画素値を、前記計測点と周辺座標との距離に応じた、0よりも大きくかつ1未満の値としたことを特徴とする請求項2に記載の風速データの使用方法。 The control image creation step is characterized in that the pixel value of the peripheral coordinates, which is the coordinates around the measurement point, is set to a value greater than 0 and less than 1 according to the distance between the measurement point and the peripheral coordinates. The method of using the wind speed data according to claim 2. 風速データを、深層学習により風速分布を予測する際の学習データとして用いる方法であって、
前記風速データが、風洞実験で得られた風速データと、流体力学を用いた数値シミュレーション解析で得られた風速データの両方であり、
前記風速データを用いて作成した教師画像の各座標の画素値と、深層学習により予測された予測画像の各座標の画素値である予測値と、予め設定された損失関数とから、前記教師画像と前記予測画像との誤差を算出する際に、
前記風速データが前記風洞実験で得られた風速データである場合には、
前記教師画像の風洞実験の計測点以外の座標の画素値と前記予測画像の前記計測点以外の座標の予測値の画素値との誤差分を排除し、
前記風速データが前記数値シミュレーション解析で得られた風速データである場合には、
前記教師画像の前記数値シミュレーション解析の計算値の誤差分を全て使用することを特徴とする風速データの使用方法。
It is a method of using wind speed data as learning data when predicting the wind speed distribution by deep learning.
The wind speed data are both the wind speed data obtained in the wind tunnel experiment and the wind speed data obtained in the numerical simulation analysis using fluid mechanics.
From the pixel value of each coordinate of the teacher image created using the wind velocity data, the predicted value which is the pixel value of each coordinate of the predicted image predicted by deep learning, and the preset loss function, the teacher image When calculating the error between the predicted image and the predicted image
When the wind speed data is the wind speed data obtained in the wind tunnel experiment,
The error between the pixel value of the coordinate other than the measurement point of the wind tunnel experiment of the teacher image and the pixel value of the predicted value of the coordinate other than the measurement point of the predicted image is eliminated.
When the wind speed data is the wind speed data obtained by the numerical simulation analysis,
A method of using wind speed data, which comprises using all the errors of the calculated values of the numerical simulation analysis of the teacher image.
JP2020063161A 2020-03-31 2020-03-31 How to use wind speed data Active JP7381384B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020063161A JP7381384B2 (en) 2020-03-31 2020-03-31 How to use wind speed data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020063161A JP7381384B2 (en) 2020-03-31 2020-03-31 How to use wind speed data

Publications (2)

Publication Number Publication Date
JP2021162437A true JP2021162437A (en) 2021-10-11
JP7381384B2 JP7381384B2 (en) 2023-11-15

Family

ID=78003216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020063161A Active JP7381384B2 (en) 2020-03-31 2020-03-31 How to use wind speed data

Country Status (1)

Country Link
JP (1) JP7381384B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117216491A (en) * 2023-11-09 2023-12-12 中国航空工业集团公司哈尔滨空气动力研究所 Neural network-based low-speed wind tunnel bracket interference quantity prediction method and equipment

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6780968B2 (en) 2016-07-07 2020-11-04 株式会社熊谷組 Wind speed distribution estimation method around the building and wind speed distribution estimation device around the building
JP6949644B2 (en) 2017-09-29 2021-10-13 清水建設株式会社 Wind environment learning device, wind environment evaluation system, wind environment learning method and wind environment evaluation method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117216491A (en) * 2023-11-09 2023-12-12 中国航空工业集团公司哈尔滨空气动力研究所 Neural network-based low-speed wind tunnel bracket interference quantity prediction method and equipment
CN117216491B (en) * 2023-11-09 2024-02-09 中国航空工业集团公司哈尔滨空气动力研究所 Neural network-based low-speed wind tunnel bracket interference quantity prediction method and equipment

Also Published As

Publication number Publication date
JP7381384B2 (en) 2023-11-15

Similar Documents

Publication Publication Date Title
CN108960135B (en) Dense ship target accurate detection method based on high-resolution remote sensing image
CN109598184B (en) Method and device for processing multi-segmentation tasks
CN109948522B (en) X-ray hand bone maturity interpretation method based on deep neural network
CN107862668A (en) A kind of cultural relic images restored method based on GNN
CN110349185B (en) RGBT target tracking model training method and device
CN113139453B (en) Orthoimage high-rise building base vector extraction method based on deep learning
CN109849576B (en) Method for assisting drawing by referring to gray level diagram
CN106780543A (en) A kind of double framework estimating depths and movement technique based on convolutional neural networks
CN111428818A (en) Deep learning model test method and device based on neural pathway activation state
CN112381060B (en) Building earthquake damage level classification method based on deep learning
CN110232445B (en) Cultural relic authenticity identification method based on knowledge distillation
CN114663397B (en) Method, device, equipment and storage medium for detecting drivable area
CN109657612A (en) A kind of quality-ordered system and its application method based on facial image feature
CN109863547A (en) The equipment for constructing map for using machine learning and image procossing
JP7207846B2 (en) Information processing device, information processing method and program
CN112991371B (en) Automatic image coloring method and system based on coloring overflow constraint
JP6780968B2 (en) Wind speed distribution estimation method around the building and wind speed distribution estimation device around the building
CN111696079A (en) Surface defect detection method based on multi-task learning
JP2021162437A (en) Wind velocity data use method
CN112215766B (en) Image defogging method combining image restoration and image enhancement and convolution network thereof
CN113365039A (en) Multi-screen display color correction method and system for flight simulator
JP7151742B2 (en) Image conversion device, image conversion method, and computer program for image conversion
CN112966777A (en) Semi-automatic labeling method and system based on human-computer interaction
CN115018729B (en) Content-oriented white box image enhancement method
CN110363733A (en) A kind of mixed image generation method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231102

R150 Certificate of patent or registration of utility model

Ref document number: 7381384

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150