JP7473886B2 - Training data creation system, training data creation method, and trained model - Google Patents
Training data creation system, training data creation method, and trained model Download PDFInfo
- Publication number
- JP7473886B2 JP7473886B2 JP2020071925A JP2020071925A JP7473886B2 JP 7473886 B2 JP7473886 B2 JP 7473886B2 JP 2020071925 A JP2020071925 A JP 2020071925A JP 2020071925 A JP2020071925 A JP 2020071925A JP 7473886 B2 JP7473886 B2 JP 7473886B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- fire
- camera
- learning
- data creation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 41
- 238000012549 training Methods 0.000 title claims description 23
- 238000003384 imaging method Methods 0.000 claims description 29
- 238000012544 monitoring process Methods 0.000 claims description 28
- 238000010801 machine learning Methods 0.000 description 32
- 230000006870 function Effects 0.000 description 28
- 238000010586 diagram Methods 0.000 description 18
- 238000001514 detection method Methods 0.000 description 17
- 239000002699 waste material Substances 0.000 description 8
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008676 import Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、学習データ作成システム、学習データ作成方法、および学習済みモデルに関する。 The present invention relates to a training data creation system, a training data creation method, and a trained model.
炎を判定する炎検知装置が開発されている(特許文献1参照)。この炎検知装置は、撮像素子によって監視対象を撮像して得られた画像から炎を判定する。 A flame detection device that detects flames has been developed (see Patent Document 1). This flame detection device detects flames from images obtained by capturing an image of a monitored object using an image sensor.
また、近年では人工知能(AI:Artificial Intelligence)の技術を用いた画像認識手段を取り入れたシステムの開発が様々な分野で進められている。この技術を用いれば、例えば多数の教師データを学習モデルに入力して学習させることで、撮像した画像から火の発生を検知する学習済みモデルを作成することができる。 In recent years, the development of systems that incorporate image recognition methods using artificial intelligence (AI) technology has been progressing in various fields. Using this technology, for example, it is possible to create a trained model that can detect the outbreak of a fire from captured images by inputting a large amount of training data into the learning model and having it learn.
しかし、精度の高い学習済みモデルを作成するためには膨大な数の教師データが必要であり、そのような膨大な数の教師データを作成するためにはとても多くの労力を要する。そのため、精度の高い学習済みモデルを作成するのが困難であった。 However, creating a highly accurate trained model requires a huge amount of training data, and creating such a huge amount of training data requires a huge amount of effort. This makes it difficult to create a highly accurate trained model.
このような観点から、本発明は、学習データの作成に要する労力を抑えることができる学習データ作成システム、学習データ作成方法、および当該学習データ作成方法によって作成した学習データを用いて作成した学習済みモデルを提供する。 From this perspective, the present invention provides a training data creation system and a training data creation method that can reduce the effort required to create training data, and a trained model created using training data created by the training data creation method.
前記課題を解決するため、本発明に係る学習データ作成システムは、画像データから火の検知を行う学習モデルに入力する教師データを作成する学習データ作成システムである。この学習データ作成システムは、撮像手段と、取得手段と、第一作成手段とを備える。
撮像手段は、監視対象の第一画像および前記第一画像と同時刻に撮影したものであって当該第一画像よりも撮像時の光量を抑えた第二画像を撮像する。
取得手段は、前記監視対象における火の存在を示す存在情報を、画像認識手段を用いて前記第二画像から取得する。
第一作成手段は、前記第一画像に前記存在情報をラベルとして関連付けた第一教師データを作成する。
In order to achieve the above object, a learning data creation system according to the present invention is a learning data creation system that creates teacher data to be input to a learning model for detecting fire from image data. The learning data creation system includes an imaging means, an acquisition means, and a first creation means.
The imaging means captures a first image of the monitored object and a second image that is captured at the same time as the first image and has a lower amount of light than the first image.
The acquisition means acquires presence information indicating the presence of a fire in the monitored object from the second image using the image recognition means.
The first creation means creates first teacher data in which the presence information is associated with the first image as a label.
前記第一画像は、前記監視対象の状況および前記火の範囲を目視可能であるのがよい。また、前記第二画像は、前記火の範囲のみを目視可能であるのがよい。 The first image preferably allows the situation of the monitored object and the extent of the fire to be visually observed. Also, the second image preferably allows only the extent of the fire to be visually observed.
本発明に係る学習データ作成システムにおいては、撮影時に光量を抑えることによって火が第二画像に鮮明に写し出される。そのため、撮影時に光量を抑えていない第一画像から画像認識手段を用いて火の存在を判定するのに比べて、第二画像から火の存在の判定を行うのが容易である。したがって、第二画像から取得した火の存在を示す存在情報の間違いが少なく、存在情報をラベルとして関連付けた第一教師データの精度が高い。その結果、第一教師データの作成に要する労力を抑えることができる。 In the learning data creation system according to the present invention, the fire is clearly depicted in the second image by suppressing the amount of light when photographing. Therefore, it is easier to determine the presence of a fire from the second image compared to determining the presence of a fire using an image recognition means from the first image in which the amount of light is not suppressed when photographing. Therefore, there are fewer errors in the presence information indicating the presence of a fire obtained from the second image, and the accuracy of the first teacher data in which the presence information is associated as a label is high. As a result, the effort required to create the first teacher data can be reduced.
前記取得手段は、火が写る範囲を示す範囲情報を前記第二画像からさらに取得し、前記第一作成手段は、前記第一画像に前記存在情報および前記範囲情報をラベルとして関連付けた第一教師データを作成してもよい。 The acquisition means may further acquire range information indicating the range in which the fire is captured from the second image, and the first creation means may create first teacher data in which the presence information and the range information are associated as labels with the first image.
このようにすると、火が写る範囲を示す範囲情報を付した第一教師データを容易に作成することができる。 In this way, it is easy to create first teacher data that includes range information indicating the range in which the fire is captured.
前記撮像手段は、前記第一画像を撮像する第一カメラと、前記第一カメラの上方または下方に配置されており前記第二画像を撮像する第二カメラと、前記第一カメラの側方に配置されており前記第二画像を撮像する第三カメラと、を有するのがよい。
前記取得手段は、前記第二カメラが撮像した前記第二画像から前記第一画像における火の左右方向の範囲を特定し、前記第三カメラが撮像した前記第二画像から前記第一画像における火の上下方向の範囲を特定する。
The imaging means preferably has a first camera for capturing the first image, a second camera arranged above or below the first camera for capturing the second image, and a third camera arranged to the side of the first camera for capturing the second image.
The acquisition means determines the left-right range of the fire in the first image from the second image captured by the second camera, and determines the up-down range of the fire in the first image from the second image captured by the third camera.
このようにすると、火が写る範囲を簡単な計算によって特定できるので、火が写る範囲を示す範囲情報を付した第一教師データをさらに容易に作成することができる。 In this way, the range in which the fire is reflected can be identified by a simple calculation, making it even easier to create first teaching data that includes range information indicating the range in which the fire is reflected.
前記第二画像に少なくとも前記存在情報をラベルとして関連付けた第二教師データを作成する第二作成手段をさらに備えるのがよい。 It is preferable to further include a second creation means for creating second teacher data in which at least the presence information is associated with the second image as a label.
このようにすると、第一教師データと同様に、存在情報をラベルとして関連付けた第二教師データの作成に要する労力を抑えることができる。 In this way, it is possible to reduce the effort required to create second training data that associates presence information as labels, similar to the first training data.
前記課題を解決するため、本発明に係る学習データ作成方法は、画像データから火の検知を行う学習モデルに入力する教師データを作成する学習データ作成方法である。この学習データ作成方法では、撮像ステップと、取得ステップと、第一作成ステップとを実行する。
撮像ステップでは、監視対象の第一画像および前記第一画像と同時刻に撮影したものであって当該第一画像よりも撮像時の光量を抑えた第二画像を撮像する。
取得ステップでは、前記監視対象における火の存在を示す存在情報を、画像認識手段を用いて前記第二画像から取得する。
第一作成ステップでは、前記第一画像に前記存在情報をラベルとして関連付けた第一教師データを作成する。
In order to solve the above problems, a learning data creation method according to the present invention is a learning data creation method for creating teacher data to be input to a learning model for detecting fire from image data. This learning data creation method includes an imaging step, an acquisition step, and a first creation step.
In the imaging step, a first image of the monitored object and a second image that is taken at the same time as the first image and has a lower amount of light than the first image are captured.
In the acquisition step, presence information indicating the presence of a fire in the monitored object is acquired from the second image using an image recognition means.
In the first creation step, first teacher data is created by associating the presence information with the first image as a label.
本発明に係る学習データ作成方法においては、撮影時に光量を抑えることによって火が第二画像に鮮明に写し出される。そのため、撮影時に光量を抑えていない第一画像から画像認識手段を用いて火の存在を判定するのに比べて、第二画像から火の存在の判定を行うのが容易である。したがって、第二画像から取得した火の存在を示す存在情報の間違いが少なく、存在情報をラベルとして関連付けた第一教師データの精度が高い。その結果、第一教師データの作成に要する労力を抑えることができる。 In the learning data creation method according to the present invention, the fire is clearly depicted in the second image by suppressing the amount of light when photographing. Therefore, it is easier to determine the presence of a fire from the second image compared to determining the presence of a fire using an image recognition means from a first image in which the amount of light is not suppressed when photographing. Therefore, there are fewer errors in the presence information indicating the presence of a fire obtained from the second image, and the accuracy of the first teacher data in which the presence information is associated as a label is high. As a result, the effort required to create the first teacher data can be reduced.
学習データ作成方法によって作成した前記第一教師データを用いて教師あり学習を行って、火の検知を行う処理をコンピュータに実行させるための学習済みモデルを作成するのがよい。 It is preferable to perform supervised learning using the first teacher data created by the learning data creation method to create a trained model for causing a computer to execute a process for detecting fire.
本発明によれば、学習データの作成に要する労力を抑えることができる。 The present invention reduces the effort required to create training data.
以下、本発明の実施をするための形態を、適宜図面を参照しながら詳細に説明する。各図は、本発明を十分に理解できる程度に、概略的に示してあるに過ぎない。よって、本発明は、図示例のみに限定されるものではない。また、参照する図面において、本発明を構成する部材の寸法は、説明を明確にするために誇張して表現されている場合がある。なお、各図において、共通する構成要素や同様な構成要素については、同一の符号を付し、それらの重複する説明を省略する。 Below, the form for implementing the present invention will be described in detail with reference to the drawings as appropriate. Each figure is merely a schematic illustration to the extent that the present invention can be fully understood. Therefore, the present invention is not limited to only the illustrated examples. Also, in the drawings referred to, the dimensions of the components constituting the present invention may be exaggerated in order to clarify the explanation. In addition, in each figure, common or similar components are given the same reference numerals, and duplicate explanations thereof will be omitted.
[第1実施形態]
<第1実施形態に係る学習データ作成システムを含む総合監視システムの構成>
図1を参照して、第1実施形態に係る総合監視システムSAについて説明する。図1は、総合監視システムSAの概略構成図である。総合監視システムSAは、各々の現場に設置される消防システム1A-1,1A-2,・・,1A-N(N≧2)と、クラウドシステム2Aと、ユーザ端末3とを備える。消防システム1A-1,1A-2,・・,1A-Nの構成は同様であるので、以下ではまとめて「消防システム1A」と称する場合がある。
[First embodiment]
<Configuration of an integrated monitoring system including a learning data creation system according to the first embodiment>
A comprehensive monitoring system SA according to the first embodiment will be described with reference to Fig. 1. Fig. 1 is a schematic configuration diagram of the comprehensive monitoring system SA. The comprehensive monitoring system SA includes
(消防システムについて)
消防システム1Aは、火の発生を監視するとともに火が発生した場合に自動で消火するシステムである。消防システム1Aは、火の発生を監視する監視対象や監視目的を限定せずに、様々な状況における火の発生の監視および消火に利用することができる。ここでの火には、火花や炎などの火災の原因になるものが広く含まれる。火は、光や熱を発生する。
(About the fire protection system)
The
図1に示すように、本実施形態では、消防システム1Aを用いて、廃棄物処理施設に設置される破砕機Kを監視する場合について説明し、破砕機Kにおける火(特に、火花)の発生を検知する。破砕機Kにはベルトコンベアを介して廃棄物が搬送されてくる。消防システム1Aによれば、作業員が破砕機Kを目視により常時監視することなしに、破砕機Kで発生する火を検知できる。
As shown in FIG. 1, in this embodiment, a
図1に示すように、消防システム1Aは、撮像手段10Aと、ローカル端末20Aと、制御装置30と、消防用設備40とを備える。なお、図1に示す消防システム1Aの構成はあくまで例示であり、図1とは異なる構成にすることもできる。
As shown in FIG. 1, the
撮像手段10Aは、監視対象である破砕機Kを撮像し、破砕機Kの画像(映像でもよい)を作成する。撮像手段10Aは、第一カメラ11と第二カメラ12とを備える。第一カメラ11および第二カメラ12は、デジタルカメラであって同じ機種であるのがよい。第一カメラ11および第二カメラ12は同期しており(同時に撮像することが可能であり)、同時刻の破砕機Kの状態を撮像できる。第一カメラ11および第二カメラ12は、監視対象を同じ場所(つまり、同じ角度および同じ距離)から撮像できるように設置されるのがよい。第一カメラ11と第二カメラ12とは上下方向に並べて配置されている。第一カメラ11および第二カメラ12の光軸は、平行である。第一カメラ11および第二カメラ12は、監視を行うのに十分な解像度(例えば、800万画素以上)を有しているのがよい。また、映像を撮影する場合、第一カメラ11および第二カメラ12は、監視を行うのに十分な程度の連続撮影が可能であるのがよい(例えば、1秒間に数十枚の撮影が可能であるのがよい)。なお、詳細は後記するが、第1実施形態では火の位置の特定は問題としないので、第一カメラ11と第二カメラ12とが必ずしも同じ機種でなくてもよく、また同じ場所に設置されていなくてもよい(つまり、撮影するタイミングの同期が取れていればよい)。
The imaging means 10A captures an image of the crusher K, which is the object of monitoring, and creates an image (or a video) of the crusher K. The imaging means 10A includes a
第一カメラ11は、監視対象の第一画像を撮像する。第一画像は、監視対象の状況が分かる程度に鮮明な画像である。第一画像は、監視対象の状況および火の範囲を目視可能であるのが望ましい。第一カメラ11は、例えば発生する火の輪郭や色の特徴を出せるように各種のパラメータが設定されている。第一カメラ11を自動モード(自動補正あり)に設定して第一画像を撮像してもよい。
The
第二カメラ12は、監視対象の第二画像を撮像する。第二画像は、発生した火が鮮明な画像である。第二画像は、火の範囲のみを目視可能であるのが望ましい。第二カメラ12は、例えば光量を抑えるように各種のパラメータが設定されている(例えば、絞り値、露光時間など)。そのため、第二カメラ12を手動モード(自動補正なし)に設定して第二画像を撮像するのがよい。第二画像は、第一画像に比べて暗い画像になる。以下では、第一画像を「明るい画像」と呼び、「第二画像」を「暗い画像」と呼ぶ場合がある。なお、第一カメラ11と第二カメラ12とは、撮像範囲の設定が同じになっているのがよい。
The
図2(a)に第一画像P1のイメージを示し、図2(b)に第二画像P2のイメージを示す。図2に示す第一画像P1および第二画像P2には、破砕機K、廃棄物H、発生した火Fなどが写っている。明るい画像である第一画像P1では、破砕機Kや廃棄物Hが鮮明に写っているので、相対的に火Fが分かりづらくなっている。一方、暗い画像である第二画像P2では、破砕機Kや廃棄物Hが鮮明に写っていないので(例えば、薄暗い状態)、相対的に火Fが分かりやすくなっている。 Figure 2(a) shows an image of the first image P1, and Figure 2(b) shows an image of the second image P2. The first image P1 and second image P2 shown in Figure 2 show the crusher K, waste H, and the fire F that has started. In the first image P1, which is a bright image, the crusher K and waste H are clearly visible, making the fire F relatively difficult to see. On the other hand, in the second image P2, which is a dark image, the crusher K and waste H are not clearly visible (e.g., in a dim state), making the fire F relatively easy to see.
図1に示すローカル端末20Aは、情報処理装置であって消防システム1Aを管理している。ローカル端末20Aは、例えばパーソナルコンピュータである。ローカル端末20Aは、撮像手段10Aに接続されており、撮像手段10Aから第一画像および第二画像を受信する。ローカル端末20Aには、火を検知するプログラム(例えば、学習済みモデル)が格納されており、第一画像および第二画像の少なくとも何れか一方を用いて火を検知する。どの画像を用いて火の検知を行うかは事前に設定されている。
The
ローカル端末20Aは、予め決められた条件に従って(例えば、所定時間内に規定回数を超えて火を検知したなど)、消火や警報などの対応を行うか否かを判定する。ローカル端末20Aは、制御装置30に接続されており、消火や警報などの対応を制御装置30に対して指示する。また、ローカル端末20Aは、Eメールの送信機能を有しており、予め決められた相手に火の発生を通知する。また、ローカル端末20Aは、クラウドシステム2に接続されており、第一画像および第二画像や火の発生に関する情報をクラウドシステム2Aに送信する。
The
図1に示す制御装置30は、例えばPLC(Programmable Logic Controller)制御盤である。制御装置30は、ローカル端末20Aおよび消防用設備40に接続されており、ローカル端末20Aからの指示に従って、消防用設備40を動作させる。なお、ローカル端末20Aと制御装置30とが一つの装置として構成されていてもよい。その場合、ローカル端末20Aは、例えば消防用設備40に直接指示を送信する。
The
図1に示す消防用設備40は、火が発生した場合に動作して火災への対応を行う装置である。消防用設備40は、例えば消火設備41と、警報設備42とを備える。消火設備41は、例えばスプリンクラーであって発生した火を消火する。警報設備42は、例えばスピーカーや無線機であって、廃棄物処理施設の作業員に対して避難を促す。
The
図1に示すクラウドシステム2Aは、総合監視システムSAを管理している。クラウドシステム2Aは、ローカル端末20Aおよびユーザ端末3に接続されている。クラウドシステム2Aは、例えば監視対象ごとにデータベースを構築しており、ローカル端末20Aから受信した第一画像および第二画像を管理している。
The
クラウドシステム2Aは、第一画像および第二画像を教師データとして教師あり学習によって学習済みモデルを作成する機能を有している。クラウドシステム2Aで学習された最新の学習済みモデルは、ローカル端末20Aに送信され、ローカル端末20Aの学習済みモデルは定期的に更新される。学習データの作成方法および学習方法については後述する。
The
図1に示すユーザ端末3は、例えば廃棄物処理施設を管理するユーザが操作する端末である。ユーザ端末3は、クラウドシステム2に接続されており、クラウドシステム2が収集した監視対象の情報を取得可能である。ユーザは、ユーザ端末3を用いて自身が管理する廃棄物処理施設に設置される破砕機Kの情報を確認できる。
The
(ローカル端末について)
図3を参照して、ローカル端末20Aが有する機能について説明する。図3は、ローカル端末20Aの機能構成図である。
ローカル端末20Aは、主に、入力手段21と、取得手段22Aと、火検知手段23Aと、制御手段24と、出力手段25とを備えている。ローカル端末20Aが備えるこれらの機能は、CPU(Central Processing Unit)によるプログラム実行処理や、専用回路等により実現される。なお、図3に示すローカル端末20Aの各機能の分類は、説明の便宜上のものであって、本発明を限定するものではない。
(Regarding local terminals)
The functions of the
The
入力手段21は、明るい画像である第一画像P1(図2(a)参照)および暗い画像である第二画像P2(図2(b)参照)をローカル端末20A内に取り込むための機能である。入力手段21は、例えば入力インタフェースを含んで構成されており、撮像手段10Aから第一画像P1および第二画像P2を受信し、受信した第一画像P1および第二画像P2を図示しない記憶手段に格納する。
The input means 21 is a function for importing a first image P1 (see FIG. 2(a)), which is a bright image, and a second image P2 (see FIG. 2(b)), which is a dark image, into the
取得手段22Aは、教師データのラベルとなる情報を取得する機能である。取得手段22Aは、画像認識手段を用いて第二画像から教師データのラベルとなる情報を取得する。ラベルとなる情報は、検知する火に関する情報であればよく、学習する内容に応じて決定される。本実施形態では、火の検知を行う学習モデルを作成するので、ラベルとなる情報は火の存在を示す存在情報(火のあり/なし情報)である。 The acquisition means 22A is a function for acquiring information that will become the labels of the training data. The acquisition means 22A acquires information that will become the labels of the training data from the second image using the image recognition means. The label information only needs to be information about the fire to be detected, and is determined according to the content to be learned. In this embodiment, a learning model that detects fire is created, so the label information is presence information indicating the presence of a fire (information about whether or not there is a fire).
本実施形態に係る取得手段22Aは、画像認識手段を用いて第二画像に火が存在するか否か(火が写っているか否か)を判定する。火の存在を判定する画像認識手段の種類は特に限定されず、様々な方法を用いることができる。例えば火を検知するプログラムを開発してそれを画像認識手段として用いてもよいし、後述する第二画像から火を検知する第二学習済みモデルMAbを画像認識手段として用いてもよい。以下では、学習済みモデルによる画像認識を特に「AI(Artificial Intelligence)画像認識」と呼び、開発したプログラムによる画像認識を特に「非AI画像認識」と呼ぶことにする。 The acquisition means 22A according to this embodiment uses image recognition means to determine whether or not a fire exists in the second image (whether or not a fire is captured). The type of image recognition means for determining the presence of a fire is not particularly limited, and various methods can be used. For example, a program for detecting fire may be developed and used as the image recognition means, or a second trained model MAb for detecting fire from the second image, which will be described later, may be used as the image recognition means. Hereinafter, image recognition using a trained model will be specifically referred to as "AI (Artificial Intelligence) image recognition", and image recognition using a developed program will be specifically referred to as "non-AI image recognition".
非AI画像認識は、従来から知られている一般物体認識の技術を用いたものであってよい。この技術では、例えば画像に写る物体の形状、輪郭、動き、色、飽和度等の物体の状態を特徴量(パラメータ)として読み取り、予め登録しておいた物体の特徴量(パラメータ)と比較することで物体の類似度を算出する。なお、ここで示した物体の状態はあくまで例示であり、表面の凹凸状況、大きさ等を物体の状態として用いてもよい。第二画像では、発生した火が鮮明であるので、特徴量の読み取りが比較的容易であり、取得手段22Aが火を検知する精度は、教師データのラベルとなる情報(火のある/なし情報)を取得するのに十分なものになる。教師データのラベルとなる情報(火のある/なし情報)を取得するのに十分な精度とは、例えば火の発生の監視を行うのに十分な精度を要求するものではなく、発光体(例えば、照明や回転灯)を火と判定する程度の誤認識を許容するものであってよい。ただし、監視を行うのに十分な精度を有することを否定するものではない。なお、本実施形態では火の位置の特定は問題としないことにする(つまり、火の正確な位置までも特定するプログラムを作成する必要はない)。また、非AI画像認識のプログラムは、現場ごと、カメラごと、監視対象ごとに作成したものであってよく、複数の現場で共通するものでなくてもよい。 Non-AI image recognition may use a conventionally known general object recognition technology. In this technology, for example, the state of an object, such as the shape, outline, movement, color, saturation, etc. of an object in an image is read as a feature (parameter), and the similarity of the object is calculated by comparing it with the feature (parameter) of an object registered in advance. Note that the state of the object shown here is merely an example, and the surface unevenness, size, etc. may be used as the state of the object. In the second image, the fire that has occurred is clear, so it is relatively easy to read the feature, and the accuracy with which the acquisition means 22A detects the fire is sufficient to acquire information (information on whether or not there is a fire) that will be the label of the teacher data. The accuracy sufficient to acquire information (information on whether or not there is a fire) that will be the label of the teacher data does not require, for example, accuracy sufficient to monitor the occurrence of a fire, but may allow misrecognition to the extent that a light-emitting object (for example, a light or a rotating light) is determined to be a fire. However, this does not deny the existence of sufficient accuracy for monitoring. Note that in this embodiment, the identification of the position of the fire is not an issue (i.e., there is no need to create a program that identifies the exact position of the fire). Additionally, non-AI image recognition programs can be created for each site, camera, and monitored object, and do not need to be common across multiple sites.
火検知手段23Aは、第一学習済みモデルMAaと、第二学習済みモデルMAbとを備える。第一学習済みモデルMAaおよび第二学習済みモデルMAbは、例えばニューラルネットワークとして構成されており、監視対象において火が発生している可能性を算出する。例えば、ニューラルネットワークは、決められた画素数の画像を入力する入力層と、中間層(隠れ層)と、火のある/なしに応じたノードを有する出力層とによって構成されている。入力層には、第一画像P1や第二画像P2が入力される。第一画像P1、第二画像P2の入力方法は特に限定されない。出力層からは、火が発生している可能性が確率として出力される。 The fire detection means 23A includes a first trained model MAa and a second trained model MAb. The first trained model MAa and the second trained model MAb are configured, for example, as neural networks, and calculate the possibility that a fire has broken out in the monitored object. For example, the neural network is configured with an input layer that inputs an image with a fixed number of pixels, an intermediate layer (hidden layer), and an output layer that has nodes corresponding to the presence or absence of a fire. The first image P1 and the second image P2 are input to the input layer. There are no particular limitations on the method of inputting the first image P1 and the second image P2. The possibility that a fire has broken out is output as a probability from the output layer.
第一学習済みモデルMAaは、明るい画像である第一画像P1(図2(a)参照)から火を検知する。第一学習済みモデルMAaは、明るい画像である第一画像P1(図2(a)参照)に火の存在を示す存在情報(火のあり/なし情報)をラベルとして関連付けた第一教師データを入力することによって学習したものである。本実施形態では、クラウドシステム2Aで第一学習済みモデルMAaの学習が行われる。第一学習済みモデルMAaを用いた場合における火の検知精度は、例えば火の発生の監視を行うのに十分なものであるのがよく、発光体(例えば、照明や回転灯)を火と区別できるものであるのが望ましい。
The first trained model MAa detects fire from the first image P1 (see FIG. 2(a)), which is a bright image. The first trained model MAa is trained by inputting first teacher data in which presence information (fire presence/absence information) indicating the presence of fire is associated as a label with the first image P1 (see FIG. 2(a)), which is a bright image. In this embodiment, the first trained model MAa is trained in the
第二学習済みモデルMAbは、暗い画像である第二画像P2(図2(b)参照)から火を検知する。第二学習済みモデルMAbは、暗い画像である第二画像P2(図2(b)参照)に火の存在を示す存在情報(火のあり/なし情報)をラベルとして関連付けた第二教師データを入力することによって学習したものである。本実施形態では、クラウドシステム2Aで第二学習済みモデルMAbの学習が行われる。第二学習済みモデルMAbを用いた場合における火の検知精度は、例えば火の発生の監視を行うのに十分なものであるのがよく、発光体(例えば、照明や回転灯)を火と区別できるものであるのが望ましい。なお、第二学習済みモデルMAbを用いた場合における火の検知精度は、第一学習済みモデルMAaを用いた場合における火の検知精度に比べて一般的に良くなりやすい。
The second trained model MAb detects fire from the second image P2 (see FIG. 2(b)), which is a dark image. The second trained model MAb is trained by inputting second teacher data in which presence information (fire presence/absence information) indicating the presence of fire is associated as a label with the second image P2 (see FIG. 2(b)), which is a dark image. In this embodiment, the second trained model MAb is trained in the
制御手段24は、予め決められた条件に従って(例えば、所定時間内に規定回数を超えて火を検知したなど)、消火や警報などの対応を行うか否かを判定する。制御手段24は、対応を行うと判定した場合、制御装置30を介して消火や警報などの対応を消防用設備40に指示する。また、制御手段24は、Eメールなどによって予め決められた相手に火の発生を通知する。
The control means 24 determines whether to take action such as extinguishing the fire or issuing an alarm according to predetermined conditions (for example, detecting a fire more than a specified number of times within a specified time). If the control means 24 determines that an action should be taken, it instructs the
出力手段25は、教師データの作成に必要な情報や総合監視システムSAを管理するのに必要な情報をクラウドシステム2Aに出力するための機能である。出力手段25は、例えば出力インタフェースを含んで構成されており、明るい画像である第一画像P1(図2(a)参照)および暗い画像である第二画像P2(図2(b)参照)や、火の発生に関する情報をクラウドシステム2Aに送信する。なお、第一画像P1、第二画像P2には、火の存在を示す存在情報(火のあり/なし情報)が対応付けられているのがよい。この対応付けは、例えば撮像を行った時刻によって実現されている。
The output means 25 is a function for outputting information required for creating teacher data and information required for managing the comprehensive monitoring system SA to the
(クラウドシステムについて)
図4を参照して、クラウドシステム2Aが有する機能について説明する。図4は、クラウドシステム2Aの機能構成図である。
クラウドシステム2Aは、主に、入力手段31と、作成手段32Aと、機械学習手段33Aと、更新手段34とを備えている。クラウドシステム2Aが備えるこれらの機能は、CPU(Central Processing Unit)によるプログラム実行処理や、専用回路等により実現される。なお、図4に示すクラウドシステム2Aの各機能の分類は、説明の便宜上のものであって、本発明を限定するものではない。
(About the cloud system)
The functions of the
The
入力手段31は、教師データの作成に必要な情報や総合監視システムSAを管理するのに必要な情報をクラウドシステム2内に取り込むための機能である。入力手段31は、例えば入力インタフェースを含んで構成されており、例えば明るい画像である第一画像P1(図2(a)参照)および暗い画像である第二画像P2(図2(b)参照)や火の発生に関する情報を受信し、受信したこれらの情報を図示しない記憶手段に格納する。
The input means 31 is a function for importing information required for creating teacher data and information required for managing the comprehensive monitoring system SA into the
作成手段32Aは、教師あり学習で学習モデルに入力する教師データを作成する機能である。作成手段32Aは、第一作成手段32Aaおよび第二作成手段32Abを備える。 The creation means 32A is a function that creates teacher data to be input to a learning model in supervised learning. The creation means 32A includes a first creation means 32Aa and a second creation means 32Ab.
第一作成手段32Aaは、明るい画像である第一画像P1に火の存在を示す存在情報(火のあり/なし情報)をラベルとして関連付けた第一教師データを作成する。第一教師データには、第一画像P1に火が写っているものと火が写っていないものとが含まれる。火が写っている第一画像P1には、「火がある」とのラベルが付与され、また、火が写っていない第一画像P1には、「火がない」とのラベルが付与される。 The first creation means 32Aa creates first teacher data in which presence information (fire presence/absence information) indicating the presence of fire is associated as a label with the first image P1, which is a bright image. The first teacher data includes first images P1 in which fire is captured and first images P1 in which no fire is captured. The first image P1 in which fire is captured is given the label "there is fire," and the first image P1 in which no fire is captured is given the label "there is no fire."
第二作成手段32Abは、暗い画像である第二画像P2に火の存在を示す存在情報(火のあり/なし情報)をラベルとして関連付けた第二教師データを作成する。第二教師データには、第二画像P2に火が写っているものと火が写っていないものとが含まれる。火が写っている第二画像P2には、「火がある」とのラベルが付与され、また、火が写っていない第二画像P2には、「火がない」とのラベルが付与される。 The second creation means 32Ab creates second teacher data in which presence information (fire presence/absence information) indicating the presence of fire is associated as a label with the second image P2, which is a dark image. The second teacher data includes second images P2 in which fire is captured and those in which no fire is captured. The second image P2 in which fire is captured is given the label "there is fire," and the second image P2 in which no fire is captured is given the label "there is no fire."
機械学習手段33Aは、教師あり学習によって学習モデルを学習させるための機能である。機械学習手段33Aは、第一機械学習手段33Aaおよび第二機械学習手段33Abを備える。 The machine learning means 33A is a function for training a learning model through supervised learning. The machine learning means 33A includes a first machine learning means 33Aa and a second machine learning means 33Ab.
第一機械学習手段33Aaは、第一教師データを入力として学習モデルを学習する。第一機械学習手段33Aaは、学習済みのモデルを再学習することもできる。なお、第一教師データは、明るい画像である第一画像P1に火の存在を示す存在情報(火のあり/なし情報)をラベルとして関連付けたデータである。第一機械学習手段33Aaの学習によって、第一学習済みモデルMAa(図3参照)が作成される。 The first machine learning means 33Aa learns a learning model using the first teacher data as input. The first machine learning means 33Aa can also re-learn a learned model. The first teacher data is data in which presence information indicating the presence of fire (information on whether there is a fire or not) is associated as a label with the first image P1, which is a bright image. A first learned model MAa (see FIG. 3) is created by the learning of the first machine learning means 33Aa.
第二機械学習手段33Abは、第二教師データを入力として学習モデルを学習する。第二機械学習手段33Abは、学習済みのモデルを再学習することもできる。なお、第二教師データは、暗い画像である第二画像P2に火の存在を示す存在情報(火のあり/なし情報)をラベルとして関連付けたデータである。第二機械学習手段33Abの学習によって、第二学習済みモデルMAb(図3参照)が作成される。 The second machine learning means 33Ab learns a learning model using the second teacher data as input. The second machine learning means 33Ab can also re-learn a learned model. The second teacher data is data in which presence information indicating the presence of fire (information on whether there is a fire or not) is associated as a label with the second image P2, which is a dark image. A second learned model MAb (see FIG. 3) is created by learning by the second machine learning means 33Ab.
更新手段34は、機械学習手段33Aによって作成された学習済みモデル(第一学習済みモデルMAaおよび第二学習済みモデルMAb)をローカル端末20Aに送信し、既存の学習済みモデルをアップデートする機能である。アップデートするタイミングは特に限定されない。
The update means 34 is a function that transmits the trained models (the first trained model MAa and the second trained model MAb) created by the machine learning means 33A to the
なお、消防システム1Aが備える機能の中で学習データの作成に関する機能である「撮像手段10A」、「取得手段22A」、「作成手段32A」をまとめたものを特に「学習データ作成システム」と呼ぶ場合がある。
Note that the functions related to creating learning data among the functions of the
<第1実施形態に係る学習データ作成方法>
図5を参照して(適宜、図1ないし図4参照)、第1実施形態に係る学習データ作成方法について説明する。図5は、第1実施形態に係る学習データ作成方法を説明するための図である。ここでは、映像による監視を想定して説明する。
<Learning Data Creation Method According to the First Embodiment>
The learning data creation method according to the first embodiment will be described with reference to Fig. 5 (and Figs. 1 to 4 as appropriate). Fig. 5 is a diagram for explaining the learning data creation method according to the first embodiment. Here, the description will be given assuming video surveillance.
(ステップS10)
各現場で撮像手段10A(図1参照)が監視対象(例えば、破砕機K)を撮影し、撮影された第一画像P1および第二画像P2は、現場に設置されるローカル端末20A-1,20A-2,・・,20A-Nに送られる。
(Step S10)
At each site, an imaging means 10A (see FIG. 1) captures an image of a monitored object (e.g., a crusher K), and the captured first image P1 and second image P2 are sent to
(ステップS20)
各現場のローカル端末20Aでは、教師データのラベルとなる情報を取得するために取得手段22Aが暗い画像である第二画像P2を用いて火の検知を行い、火の存在を示す存在情報(火のあり/なし情報)を取得する。なお、この教師データのラベルとなる情報の取得処理は、監視対象を監視する処理の一部として実行されてもよい。ローカル端末20Aは、明るい画像である第一画像P1、暗い画像である第二画像P2をクラウドシステム2Aに送信する。ここで、第一画像P1、第二画像P2には、火の存在を示す存在情報(火のあり/なし情報)が対応付けられている。なお、これらの情報の送信はリアルタイムで行われなくてもよい。
(Step S20)
In the
(ステップS30)
クラウドシステム2Aは、ローカル端末20Aから取得した第一画像P1および第二画像P2を蓄積し、作成手段32Aは、所定のタイミング(例えば、機械学習を行うタイミング)で第一教師データおよび第二教師データを作成する。第一教師データは、明るい画像である第一画像P1に火の存在を示す存在情報(火のあり/なし情報)をラベルとして関連付けたものである。また、第二教師データは、暗い画像である第二画像P2に火の存在を示す存在情報(火のあり/なし情報)をラベルとして関連付けたものである。なお、人間がチェックすることによって、第一教師データおよび第二教師データの精度を高めることができる。第一教師データには、第一画像P1に火が写っているものと火が写っていないものとが含まれる。また、第二教師データには、第二画像P2に火が写っているものと火が写っていないものとが含まれる。
(Step S30)
The
(ステップS40)
クラウドシステム2Aの機械学習手段33Aは、学習モデルに第一教師データを入力して第一学習済みモデルMAaを作成する。また、機械学習手段33Aは、学習モデルに第二教師データを入力して第二学習済みモデルMAbを作成する。なお、それぞれの学習済みモデルを再学習することもできる。これにより、火を検知する精度を向上させることが可能である。
(Step S40)
The machine learning means 33A of the
(ステップS50)
クラウドシステム2Aは、最新の学習済みモデルをローカル端末20Aに送信し、ローカル端末20Aの学習済みモデルは定期的に更新される。ローカル端末20Aは、学習済みモデルを用いることによって、誤検知の少ない精度より火の検知を行うことができる。
(Step S50)
The
学習済みモデル(第一学習済みモデルMAa、第二学習済みモデルMAb)を用いる利用形態は特に限定されない。学習済みモデルの活用方法は、例えば以下のものがある。
(1)第二学習済みモデルMAbを用いた暗い第二画像P2からの検知
(2)第一学習済みモデルMAaを用いた明るい第一画像P1からの検知
(3)第二学習済みモデルMAbおよび第一学習済みモデルMAaの併用
上記(1)の利用形態では、第一画像P1を監視対象の確認用として用いてもよい。また、上記(3)の利用形態において、相反する火の検知結果が出た場合における制御は、第二学習済みモデルMAbを優先、第一学習済みモデルMAaを優先、火の検知として処理するなどが考えられる。
The usage form of the trained models (the first trained model MAa and the second trained model MAb) is not particularly limited. Examples of the usage method of the trained models include the following.
(1) Detection from a dark second image P2 using the second trained model MAb (2) Detection from a bright first image P1 using the first trained model MAa (3) Use of the second trained model MAb and the first trained model MAa in combination In the above-mentioned (1) usage form, the first image P1 may be used to confirm the monitored object. In addition, in the above-mentioned (3) usage form, when conflicting fire detection results are obtained, the control may be such that the second trained model MAb is given priority, the first trained model MAa is given priority, and the detection is processed as a fire.
以上のように、第1実施形態に係る学習データ作成システムおよび学習データ作成方法では、撮影時に光量を抑えることによって火が第二画像P2に鮮明に写し出される。そのため、撮影時に光量を抑えていない第一画像P1から画像認識手段を用いて火の存在を判定するのに比べて、第二画像P2から火の存在の判定を行うのが容易である。したがって、第二画像P2から取得した火の存在を示す存在情報の間違いが少なく、存在情報をラベルとして関連付けた第一教師データの精度が高い。その結果、第一教師データの作成に要する労力を抑えることができる。第二教師データの作成につても同様である。 As described above, in the learning data creation system and learning data creation method according to the first embodiment, the fire is clearly depicted in the second image P2 by suppressing the amount of light when photographing. Therefore, it is easier to determine the presence of a fire from the second image P2 compared to determining the presence of a fire using an image recognition means from the first image P1, in which the amount of light is not suppressed when photographing. Therefore, there are fewer errors in the presence information indicating the presence of a fire obtained from the second image P2, and the accuracy of the first teacher data, in which the presence information is associated as a label, is high. As a result, the effort required to create the first teacher data can be reduced. The same applies to the creation of the second teacher data.
[第2実施形態]
第1実施形態では、暗い画像である第二画像P2から教師データのラベルとなる情報(火のある/なし情報)を取得していた。ここで、第1実施形態では火の位置の特定は問題としていなかった。第2実施形態では、教師データのラベルとなる情報として火のある/なし情報に加えて火が写る範囲を取得する。
[Second embodiment]
In the first embodiment, information (information on whether or not there is a fire) that will be used as a label for the teacher data is obtained from the second image P2, which is a dark image. Here, in the first embodiment, identifying the position of the fire was not an issue. In the second embodiment, the range in which the fire is captured is obtained as information that will be used as a label for the teacher data, in addition to the information on whether or not there is a fire.
図6を参照して、第2実施形態に係る総合監視システムSBについて説明する。図6は、総合監視システムSBの概略構成図である。以降では、第1実施形態に係る構成との相違点について主に説明する。
総合監視システムSBは、各々の現場に設置される消防システム1B-1,1B-2,・・,1B-N(N≧2)と、クラウドシステム2Bと、ユーザ端末3とを備える。消防システム1B-1,1B-2,・・,1B-Nの構成は同様であるので、以下ではまとめて「消防システム1B」と称する場合がある。
The total monitoring system SB according to the second embodiment will be described with reference to Fig. 6. Fig. 6 is a schematic configuration diagram of the total monitoring system SB. In the following, differences from the configuration according to the first embodiment will be mainly described.
The comprehensive monitoring system SB includes
図6に示すように、消防システム1Bは、撮像手段10Bと、ローカル端末20Bと、制御装置30と、消防用設備40とを備える。制御装置30および消防用設備40の構成は、第1実施形態と同様であるので説明を省略する。なお、図6に示す消防システム1Bの構成はあくまで例示であり、図6とは異なる構成にすることもできる。
As shown in FIG. 6, the
撮像手段10Bは、監視対象である破砕機Kを撮像し、破砕機Kの画像(映像でもよい)を作成する。撮像手段10Bは、第一カメラ11と第二カメラ12と第三カメラ13とを備える。第一カメラ11、第二カメラ12および第三カメラ13は、デジタルカメラであって同じ機種である。第一カメラ11、第二カメラ12および第三カメラ13は同期しており(同時に撮像することが可能であり)、同時刻の破砕機Kの状態を撮像できる。第一カメラ11、第二カメラ12および第三カメラ13は、監視対象を同じ場所(つまり、同じ角度および同じ距離)から撮像できるように設置されるのがよい。第一カメラ11と第二カメラ12とは上下方向に並べて配置されており、第一カメラ11と第三カメラ13とは左右方向に並べて配置されている。第一カメラ11、第二カメラ12および第三カメラ13の光軸は、平行である。
The imaging means 10B captures an image of the crusher K, which is the object of monitoring, and creates an image (or a video) of the crusher K. The imaging means 10B includes a
第一カメラ11は、監視対象の第一画像を撮像する。第一画像は、監視対象の状況が分かる程度に鮮明な画像である。第一画像は、監視対象の状況および火の範囲を目視可能であるのが望ましい。第一カメラ11は、例えば発生する火の輪郭や色の特徴を出せるように各種のパラメータが設定されている。第一カメラ11を自動モード(自動補正あり)に設定して第一画像を撮像してもよい。
The
第二カメラ12および第三カメラ13は、監視対象の第二画像を撮像する。第二画像は、発生した火が鮮明な画像である。第二画像は、火の範囲のみを目視可能であるのが望ましい。第二カメラ12および第三カメラ13は、例えば光量を抑えるように各種のパラメータが設定されている(例えば、絞り値、露光時間など)。そのため、第二カメラ12および第三カメラ13を手動モード(自動補正なし)に設定して第二画像を撮像するのがよい。第二画像は、第一画像に比べて暗い画像になる。
The
図7(a)は撮像手段10Bの正面図であり、(b)は撮像手段10Bを構成する各カメラの視界のイメージ(つまり、撮像した画像イメージ)である。
図7(a)に示すように、第二カメラ12は、第一カメラ11の下方に配置されており、また、第三カメラ13は、第一カメラ11の右側方に配置されている。なお、第二カメラ12が第一カメラ11の上方に配置され、第三カメラ13が第一カメラ11の左側方に配置されてもよい。図7(b)に示すように、第一カメラ11の視界と第二カメラ12の視界とは上下方向にずれており、また、第一カメラ11の視界と第三カメラ13の視界とは左右方向にずれている。そのため、第二カメラ12によって撮像された第二画像P21および第三カメラ13によって撮像された第三画像P22に写る火Fの位置は、第一カメラ11によって撮像された第一画像P1に対してずれる。なお、ずれの方向およびずれの量は、カメラの配置によって決定される。
FIG. 7A is a front view of the imaging means 10B, and FIG. 7B is an image of the field of view of each camera constituting the imaging means 10B (that is, an image of a captured image).
As shown in FIG. 7(a), the
(ローカル端末について)
図8を参照して、ローカル端末20Bが有する機能について説明する。図8は、ローカル端末20Bの機能構成図である。
ローカル端末20Bは、主に、入力手段21と、取得手段22Bと、火検知手段23Bと、制御手段24と、出力手段25とを備えている。ローカル端末20Bが備えるこれらの機能は、CPU(Central Processing Unit)によるプログラム実行処理や、専用回路等により実現される。なお、図8に示すローカル端末20Bの各機能の分類は、説明の便宜上のものであって、本発明を限定するものではない。
(Regarding local terminals)
The functions of the
The
なお、入力手段21、制御手段24および出力手段25は、第1実施形態と同様であるので詳細な説明を省略する。入力手段21は、明るい画像である第一画像P1および暗い画像である二つの第二画像P21,P22をローカル端末20B内に取り込む。出力手段25は、明るい画像である第一画像P1および暗い画像である二つの第二画像P21,P22をクラウドシステム2Bに出力する。
Note that the input means 21, control means 24 and output means 25 are the same as those in the first embodiment, and therefore detailed description will be omitted. The input means 21 imports a first image P1, which is a bright image, and two second images P21, P22, which are dark images, into the
取得手段22Bは、教師データのラベルとなる情報を取得する機能である。取得手段22Bは、画像認識手段を用いて第二画像P2から教師データのラベルとなる情報を取得する。本実施形態でのラベルとなる情報は、火の存在を示す存在情報(火のあり/なし情報)および火が写る範囲を示す範囲情報である。範囲情報には、位置情報およびサイズ情報が含まれる。取得手段22Bは、第1実施形態と同様の方法によって火の存在を示す存在情報を取得する。なお、取得手段22Bは、二つの第二画像P2の内の何れか一方を用いて火のあり/なしを判定してもよいし、二つの第二画像P2から火のあり/なしを判定してもよい。 The acquisition means 22B is a function for acquiring information that will be the label of the teacher data. The acquisition means 22B acquires information that will be the label of the teacher data from the second image P2 using image recognition means. The label information in this embodiment is presence information (information on whether there is a fire) indicating the presence of a fire and range information indicating the range in which the fire is captured. The range information includes position information and size information. The acquisition means 22B acquires the presence information that indicates the presence of a fire using a method similar to that of the first embodiment. Note that the acquisition means 22B may determine whether there is a fire using either one of the two second images P2, or may determine whether there is a fire from the two second images P2.
取得手段22Bは、二つの第二画像P2から第一画像P1に写る火の範囲を特定する。図7(a)に示すように、第一カメラ11および第二カメラ12の左右方向における光軸の位置および方向は合っている(ずれていない)。そのため、二つのカメラの画角を同じにすることによって、図7(b)に示すように、第一カメラ11が撮像した第一画像P1に写る火の左右方向の範囲と、第二カメラ12が撮像した第二画像P21に写る火の左右方向の範囲とは同じになる。同様に、図7(a)に示すように、第一カメラ11および第三カメラ13の上下方向における光軸の位置および方向は合っている(ずれていない)。そのため、二つのカメラの画角を同じにすることによって、図7(b)に示すように、第一カメラ11が撮像した第一画像P1に写る火の上下方向の範囲と、第三カメラ13が撮像した第三画像P22に写る火の上下方向の範囲とは同じになる。取得手段22Bは、この原理を利用して第一画像P1に写る火の範囲を特定する。なお、取得手段22Bは、ここで説明した以外の方法で第二画像P2から第一画像P1に写る火の範囲を特定してもよい。
The acquisition means 22B identifies the range of the fire in the first image P1 from the two second images P2. As shown in FIG. 7(a), the positions and directions of the optical axes in the left-right direction of the
火検知手段23Bは、第一学習済みモデルMBaと、第二学習済みモデルMBbとを備える。第一学習済みモデルMBaおよび第二学習済みモデルMBbは、例えばニューラルネットワークとして構成されており、監視対象において火が発生している可能性を算出する。 The fire detection means 23B includes a first trained model MBa and a second trained model MBb. The first trained model MBa and the second trained model MBb are configured, for example, as neural networks, and calculate the possibility that a fire has occurred in the monitored object.
第一学習済みモデルMBaは、明るい画像である第一画像P1(図7(b)参照)から火を検知する。第一学習済みモデルMBaは、明るい画像である第一画像P1(図7(b)参照)に火の存在を示す存在情報(火のあり/なし情報)および火の範囲を示す範囲情報(位置およびサイズ)をラベルとして関連付けた第一教師データを入力することによって学習したものである。本実施形態では、クラウドシステム2Bで第一学習済みモデルMBaの学習が行われる。
The first trained model MBa detects fire from the first image P1 (see FIG. 7(b)), which is a bright image. The first trained model MBa is trained by inputting first teacher data in which presence information indicating the presence of fire (information on whether or not there is a fire) and range information indicating the range of the fire (position and size) are associated as labels with the first image P1 (see FIG. 7(b)), which is a bright image. In this embodiment, the first trained model MBa is trained in the
第二学習済みモデルMBbは、暗い画像である第二画像P21,P22(図7(b)参照)から火を検知する。なお、第二画像P21,P22の何れか一方を用いて火を検知することもできる。第二学習済みモデルMBbは、暗い画像である第二画像P21,P22(図7(b)参照)に火の存在を示す存在情報(火のあり/なし情報)および火の範囲を示す範囲情報(位置およびサイズ)をラベルとして関連付けた第二教師データを入力することによって学習したものである。本実施形態では、クラウドシステム2Bで第二学習済みモデルMBbの学習が行われる。
The second trained model MBb detects fire from the second images P21 and P22 (see FIG. 7(b)), which are dark images. It is also possible to detect fire using either one of the second images P21 and P22. The second trained model MBb is trained by inputting second teacher data in which presence information indicating the presence of fire (information on whether or not there is a fire) and range information indicating the range of the fire (position and size) are associated as labels with the second images P21 and P22 (see FIG. 7(b)), which are dark images. In this embodiment, the second trained model MBb is trained in the
(クラウドシステムについて)
図9を参照して、クラウドシステム2Bが有する機能について説明する。図9は、クラウドシステム2Bの機能構成図である。
クラウドシステム2Bは、主に、入力手段31と、作成手段32Bと、機械学習手段33Bと、更新手段34とを備えている。クラウドシステム2Bが備えるこれらの機能は、CPU(Central Processing Unit)によるプログラム実行処理や、専用回路等により実現される。なお、図9に示すクラウドシステム2の各機能の分類は、説明の便宜上のものであって、本発明を限定するものではない。
(About the cloud system)
The functions of the
The
なお、入力手段31および更新手段34は、第1実施形態と同様であるので詳細な説明を省略する。入力手段31は、明るい画像である第一画像P1および暗い画像である第二画像P21,P22や火の発生に関する情報をクラウドシステム2B内に取り込む。
The input means 31 and the update means 34 are similar to those in the first embodiment, and therefore detailed description will be omitted. The input means 31 imports the first image P1, which is a bright image, the second images P21 and P22, which are dark images, and information regarding the occurrence of a fire into the
作成手段32Bは、教師あり学習で学習モデルに入力する教師データを作成する機能である。作成手段32Bは、第一作成手段32Baおよび第二作成手段32Bbを備える。 The creation means 32B is a function that creates teacher data to be input to a learning model in supervised learning. The creation means 32B includes a first creation means 32Ba and a second creation means 32Bb.
第一作成手段32Baは、明るい画像である第一画像P1に火の存在を示す存在情報(火のあり/なし情報)および火の範囲を示す範囲情報(位置およびサイズ)をラベルとして関連付けた第一教師データを作成する。第一教師データには、第一画像P1に火が写っているものと火が写っていないものとが含まれる。火が写っている第一画像P1には、例えば「火がある」および「火の範囲を囲む枠の情報」のラベルが付与され、また、火が写っていない第一画像P1には、「火がない」とのラベルが付与される。 The first creation means 32Ba creates first teacher data in which presence information indicating the presence of fire (information on whether there is a fire or not) and range information indicating the range of the fire (position and size) are associated as labels with the first image P1, which is a bright image. The first teacher data includes first images P1 in which fire is captured and first images in which no fire is captured. The first image P1 in which fire is captured is given labels such as "there is a fire" and "information on a frame surrounding the range of the fire", and the first image P1 in which no fire is captured is given the label "there is no fire".
第二作成手段32Bbは、暗い画像である第二画像P2に火の存在を示す存在情報(火のあり/なし情報)および火の範囲を示す範囲情報(位置およびサイズ)をラベルとして関連付けた第二教師データを作成する。第二教師データには、第二画像P2に火が写っているものと火が写っていないものとが含まれる。火が写っている第二画像P2には、例えば「火がある」および「火の範囲を囲む枠の情報」のラベルが付与され、また、火が写っていない第二画像P2には、「火がない」とのラベルが付与される。 The second creation means 32Bb creates second teacher data in which the second image P2, which is a dark image, is associated with presence information indicating the presence of a fire (information on whether there is a fire or not) and range information indicating the extent of the fire (position and size) as labels. The second teacher data includes second images P2 in which fire is captured and those in which no fire is captured. The second image P2 in which fire is captured is given labels such as "there is a fire" and "information on a frame surrounding the extent of the fire", and the second image P2 in which no fire is captured is given the label "there is no fire".
機械学習手段33Bは、教師あり学習によって学習モデルを学習させるための機能である。機械学習手段33Bは、第一機械学習手段33Baおよび第二機械学習手段33Bbを備える。 The machine learning means 33B is a function for training a learning model through supervised learning. The machine learning means 33B includes a first machine learning means 33Ba and a second machine learning means 33Bb.
第一機械学習手段33Baは、第一教師データを入力として学習モデルを学習する。第一機械学習手段33Baは、学習済みのモデルを再学習することもできる。なお、第一教師データは、明るい画像である第一画像P1に火の存在を示す存在情報(火のあり/なし情報)および火の範囲を示す範囲情報(位置およびサイズの情報)をラベルとして関連付けたデータである。第一機械学習手段33Baの学習によって、第一学習済みモデルMBa(図8参照)が作成される。第一学習済みモデルMBaによれば、発生した火の範囲の特定までが可能である。 The first machine learning means 33Ba learns a learning model using the first teacher data as input. The first machine learning means 33Ba can also re-learn a learned model. The first teacher data is data in which presence information (information on whether there is a fire) indicating the presence of a fire and range information (information on the position and size) indicating the range of the fire are associated as labels with the first image P1, which is a bright image. A first learned model MBa (see FIG. 8) is created by learning with the first machine learning means 33Ba. The first learned model MBa makes it possible to identify the range of a fire that has occurred.
第二機械学習手段33Bbは、第二教師データを入力として学習モデルを学習する。第二機械学習手段33Bbは、学習済みのモデルを再学習することもできる。なお、第二教師データは、暗い画像である第二画像P2に火の存在を示す存在情報(火のあり/なし情報)および火の範囲を示す範囲情報(位置およびサイズの情報)をラベルとして関連付けたデータである。第二機械学習手段33Bbの学習によって、第二学習済みモデルMBb(図8参照)が作成される。第二学習済みモデルMBbによれば、発生した火の範囲の特定までが可能である。 The second machine learning means 33Bb learns a learning model using the second teacher data as input. The second machine learning means 33Bb can also re-learn a learned model. The second teacher data is data in which presence information indicating the presence of a fire (information on whether there is a fire or not) and range information indicating the range of the fire (information on the position and size) are associated as labels with the second image P2, which is a dark image. A second learned model MBb (see Figure 8) is created by learning with the second machine learning means 33Bb. The second learned model MBb makes it possible to identify the range of a fire that has occurred.
なお、消防システム1Bが備える機能の中で学習データの作成に関する機能である「撮像手段10B」、「取得手段22B」、「作成手段32B」をまとめたものを特に「学習データ作成システム」と呼ぶ場合がある。
Note that the functions related to creating learning data among the functions of the
<第2実施形態に係る学習データ作成方法>
図10を参照して(適宜、図6ないし図9参照)、第2実施形態に係る学習データ作成方法について説明する。図10は、第2実施形態に係る学習データ作成方法を説明するための図である。ここでは、映像による監視を想定して説明する。
<Learning Data Creation Method According to the Second Embodiment>
A learning data creation method according to the second embodiment will be described with reference to Fig. 10 (see Figs. 6 to 9 as appropriate). Fig. 10 is a diagram for explaining the learning data creation method according to the second embodiment. Here, the description will be given assuming video surveillance.
(ステップT10)
各現場で撮像手段10B(図6参照)が監視対象(例えば、破砕機K)を撮影し、撮影された第一画像P1および二つの第二画像P2は、現場に設置されるローカル端末20B-1,20B-2,・・,20B-Nに送られる。
(Step T10)
At each site, an imaging means 10B (see Figure 6) photographs the monitored object (e.g., a crusher K), and the captured first image P1 and two second images P2 are sent to
(ステップT20)
各現場のローカル端末20Bでは、教師データのラベルとなる情報を取得するために取得手段22Bが暗い画像である二つの第二画像P2を用いて火の検知を行い、火の存在を示す存在情報(火のあり/なし情報)および火の範囲を示す範囲情報(位置およびサイズの情報)を取得する。なお、この教師データのラベルとなる情報の取得処理は、監視対象を監視する処理の一部として実行されてもよい。ローカル端末20Bは、明るい画像である第一画像P1、暗い画像である第二画像P2をクラウドシステム2Bに送信する。ここで、第一画像P1、第二画像P2には、火の存在を示す存在情報(火のあり/なし情報)および火の範囲を示す範囲情報(位置およびサイズの情報)が対応付けられている。なお、これらの情報の送信はリアルタイムで行われなくてもよい。
(Step T20)
In the
(ステップT30)
クラウドシステム2Bは、ローカル端末20Bから取得した第一画像P1および第二画像P2を蓄積し、作成手段32Bは、所定のタイミング(例えば、機械学習を行うタイミング)で第一教師データおよび第二教師データを作成する。第一教師データは、明るい画像である第一画像P1に火の存在を示す存在情報(火のあり/なし情報)および火の範囲を示す範囲情報(位置およびサイズの情報)をラベルとして関連付けたものである。また、第二教師データは、暗い画像である第二画像P2に火の存在を示す存在情報(火のあり/なし情報)および火の範囲を示す範囲情報(位置およびサイズの情報)をラベルとして関連付けたものである。なお、人間がチェックすることによって、第一教師データおよび第二教師データの精度を高めることができる。第一教師データには、第一画像P1に火が写っているものと火が写っていないものとが含まれる。また、第二教師データには、第二画像P2に火が写っているものと火が写っていないものとが含まれる。
(Step T30)
The
(ステップT40)
クラウドシステム2Bの機械学習手段33Bは、学習モデルに第一教師データを入力して第一学習済みモデルMBaを作成する。また、機械学習手段33Bは、学習モデルに第二教師データを入力して第二学習済みモデルMBbを作成する。なお、それぞれの学習済みモデルを再学習することもできる。これにより、火を検知する精度を向上させることが可能である。
(Step T40)
The machine learning means 33B of the
(ステップT50)
クラウドシステム2Bは、最新の学習済みモデルをローカル端末20Bに送信し、ローカル端末20Bの学習済みモデルは定期的に更新される。ローカル端末20Bは、学習済みモデルを用いることによって、誤検知の少ない精度より火の検知を行うことができる。
(Step T50)
The
以上のように、第2実施形態に係る学習データ作成システムおよび学習データ作成方法によっても第1実施形態と同等の効果を奏することができる。
また、第2実施形態に係る学習データ作成システムおよび学習データ作成方法によれば、火が写る範囲を示す範囲情報を付した第一教師データおよび第二教師データを容易に作成することができる。
As described above, the learning data creation system and the learning data creation method according to the second embodiment can achieve the same effects as those of the first embodiment.
In addition, according to the learning data creation system and learning data creation method of the second embodiment, it is possible to easily create first teacher data and second teacher data that are accompanied by range information indicating the range within which the fire is captured.
以上、本発明の実施形態について説明したが、本発明はこれに限定されるものではなく、特許請求の範囲の趣旨を変えない範囲で実施することができる。 The above describes an embodiment of the present invention, but the present invention is not limited to this and can be implemented within the scope of the claims.
各実施形態では、ローカル端末20A,20Bが明るい画像である第一画像P1、暗い画像である第二画像P2の両方をクラウドシステム2A,2Bに送信し、クラウドシステム2A,2Bで第一学習済みモデルMAa,MBaおよび第二学習済みモデルMAb,MBbを作成する場合について説明した。しかしながら、必ずしも第一学習済みモデルMAa,MBa、第二学習済みモデルMAb,MBbの両方を作成しなくてもよい。また、第一学習済みモデルMAa,MBa、第二学習済みモデルMAb,MBbの両方を作成した場合であっても、第一学習済みモデルMAa,MBaおよび第二学習済みモデルMAb,MBbの何れか一方を用いて監視を行ってもよい。
In each embodiment, a case has been described in which the
1A,1B 消防システム
10A,10B 撮像手段
11 第一カメラ
12 第二カメラ
13 第三カメラ
20A,20B ローカル端末
22A,22B 取得手段
23A,23B 火検知手段
30 制御装置
32A,32B 作成手段
32Aa,32Ba 第一作成手段
32Ab,32Bb 第二作成手段
33A,33B 機械学習手段
33Aa,33Ba 第一機械学習手段
33Ab,33Bb 第二機械学習手段
40 消防用設備
MAa,MBa 第一学習済みモデル
MAb,MBb 第二学習済みモデル
Claims (7)
監視対象の第一画像および前記第一画像と同時刻に撮影したものであって当該第一画像よりも撮像時の光量を抑えた第二画像を撮像する撮像手段と、
前記監視対象における火の存在を示す存在情報を、画像認識手段を用いて前記第二画像から取得する取得手段と、
前記第一画像に前記存在情報をラベルとして関連付けた第一教師データを作成する第一作成手段と、を備える、
ことを特徴とする学習データ作成システム。 A learning data creation system that creates teacher data to be input to a learning model that detects fire from image data, comprising:
an imaging means for capturing a first image of a monitoring object and a second image captured at the same time as the first image and using a smaller amount of light than the first image;
an acquisition means for acquiring presence information indicating the presence of a fire in the monitored object from the second image using an image recognition means;
a first generating means for generating first teacher data in which the presence information is associated with the first image as a label;
A learning data creation system comprising:
前記第一作成手段は、前記第一画像に前記存在情報および前記範囲情報をラベルとして関連付けた第一教師データを作成する、
ことを特徴とする請求項1に記載の学習データ作成システム。 The acquisition means further acquires range information indicating a range in which a fire is captured from the second image,
the first creation means creates first teacher data in which the presence information and the range information are associated with the first image as labels;
2. The learning data creation system according to claim 1 .
前記取得手段は、前記第二カメラが撮像した前記第二画像から前記第一画像における火の左右方向の範囲を特定し、前記第三カメラが撮像した前記第二画像から前記第一画像における火の上下方向の範囲を特定する、
ことを特徴とする請求項2に記載の学習データ作成システム。 the imaging means includes a first camera that captures the first image, a second camera that is disposed above or below the first camera and captures the second image, and a third camera that is disposed to the side of the first camera and captures the second image,
The acquisition means determines a horizontal range of the fire in the first image from the second image captured by the second camera, and determines a vertical range of the fire in the first image from the second image captured by the third camera.
3. The learning data creation system according to claim 2.
ことを特徴とする請求項1ないし請求項3の何れか一項に記載の学習データ作成システム。 A second creation means for creating second teacher data in which at least the presence information is associated with the second image as a label,
4. The learning data creation system according to claim 1, wherein the learning data creation system further comprises:
前記第二画像は、前記火の範囲のみを目視可能である、
ことを特徴とする請求項1ないし請求項4の何れか一項に記載の学習データ作成システム。 The first image allows the situation of the monitored object and the extent of the fire to be visually observed,
The second image is visible only in the area of the fire.
5. The learning data creation system according to claim 1, wherein the learning data creation system further comprises:
監視対象の第一画像および前記第一画像と同時刻に撮影したものであって当該第一画像よりも撮像時の光量を抑えた第二画像を撮像する撮像ステップと、
前記監視対象における火の存在を示す存在情報を、画像認識手段を用いて前記第二画像から取得する取得ステップと、
前記第一画像に前記存在情報をラベルとして関連付けた第一教師データを作成する第一作成ステップとを実行する、
ことを特徴とする学習データ作成方法。 A learning data creation method for creating teacher data to be input to a learning model for detecting fire from image data, comprising the steps of:
an imaging step of capturing a first image of the monitoring object and a second image captured at the same time as the first image and using a smaller amount of light than the first image;
an acquisition step of acquiring presence information indicating the presence of a fire in the monitored object from the second image using an image recognition means;
a first creation step of creating first teacher data in which the presence information is associated with the first image as a label;
A learning data creation method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020071925A JP7473886B2 (en) | 2020-04-13 | 2020-04-13 | Training data creation system, training data creation method, and trained model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020071925A JP7473886B2 (en) | 2020-04-13 | 2020-04-13 | Training data creation system, training data creation method, and trained model |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021168094A JP2021168094A (en) | 2021-10-21 |
JP7473886B2 true JP7473886B2 (en) | 2024-04-24 |
Family
ID=78079934
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020071925A Active JP7473886B2 (en) | 2020-04-13 | 2020-04-13 | Training data creation system, training data creation method, and trained model |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7473886B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009010828A (en) | 2007-06-29 | 2009-01-15 | Olympus Corp | Imaging device and imaging program |
JP2018072881A (en) | 2016-10-24 | 2018-05-10 | ホーチキ株式会社 | Fire disaster monitoring system |
JP2021018788A (en) | 2019-07-19 | 2021-02-15 | ジーワイ ネットワークス カンパニー リミテッドGynetworks Co.,Ltd. | Learning and detection method of neural network model for flame determination, system performing the same, and recording medium |
-
2020
- 2020-04-13 JP JP2020071925A patent/JP7473886B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009010828A (en) | 2007-06-29 | 2009-01-15 | Olympus Corp | Imaging device and imaging program |
JP2018072881A (en) | 2016-10-24 | 2018-05-10 | ホーチキ株式会社 | Fire disaster monitoring system |
JP2021018788A (en) | 2019-07-19 | 2021-02-15 | ジーワイ ネットワークス カンパニー リミテッドGynetworks Co.,Ltd. | Learning and detection method of neural network model for flame determination, system performing the same, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP2021168094A (en) | 2021-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102087000B1 (en) | Method And System for Monitoring Fire | |
JP7072700B2 (en) | Monitoring system | |
JP6867153B2 (en) | Abnormality monitoring system | |
JP6943401B2 (en) | Fire monitoring system | |
KR101980551B1 (en) | System For Detecting An Action Through Real-Time Intelligent CCTV Image Analysis Using Machine Learning Object Detection And Method For Detecting An Action Through Real-Time Intelligent CCTV Image Analysis Using Machine Learning Object Detection | |
KR102407327B1 (en) | Apparatus for Monitoring Fire And System having the same | |
JP2018088630A (en) | Fire monitoring system | |
KR20230004421A (en) | System for detecting abnormal behavior based on artificial intelligence | |
US20240046701A1 (en) | Image-based pose estimation and action detection method and apparatus | |
KR102233679B1 (en) | Apparatus and method for detecting invader and fire for energy storage system | |
KR20210013865A (en) | Abnormal behavior detection system and method using generative adversarial network | |
JP7473886B2 (en) | Training data creation system, training data creation method, and trained model | |
KR20110079939A (en) | Image sensing agent and security system of usn complex type | |
CN110928305A (en) | Patrol method and system for railway passenger station patrol robot | |
KR20230039468A (en) | Interaction behavior detection apparatus between objects in the image and, method thereof | |
KR102085168B1 (en) | Method and apparatus for managing safety in dangerous zone based on motion tracking | |
KR102081577B1 (en) | Intelligence Fire Detecting System Using CCTV | |
KR102568169B1 (en) | Fire Prediction system and method using dual image camera and artificial intelligence | |
KR20220061071A (en) | Method for detecting fire, and learning neural network model for fire detection based on block chain system | |
JP4954459B2 (en) | Suspicious person detection device | |
KR102658563B1 (en) | Apparatus for monitoring video, apparatus for analyzing video and learning methods thereof | |
KR20120138459A (en) | Fire detection device based on image processing with motion detect function | |
CN113420626A (en) | Construction site safety behavior judging method and storage device | |
KR20220055847A (en) | Disaster occurrence detection Method And System for rapid evacuation | |
JP7354461B2 (en) | Monitoring system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230314 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240123 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240328 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7473886 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |