JP6852436B2 - Image processing program, image processing method and image processing device - Google Patents
Image processing program, image processing method and image processing device Download PDFInfo
- Publication number
- JP6852436B2 JP6852436B2 JP2017022583A JP2017022583A JP6852436B2 JP 6852436 B2 JP6852436 B2 JP 6852436B2 JP 2017022583 A JP2017022583 A JP 2017022583A JP 2017022583 A JP2017022583 A JP 2017022583A JP 6852436 B2 JP6852436 B2 JP 6852436B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit cell
- difference analysis
- analysis unit
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 48
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000001514 detection method Methods 0.000 claims description 77
- 238000004458 analytical method Methods 0.000 description 79
- 238000000034 method Methods 0.000 description 26
- 230000008569 process Effects 0.000 description 22
- 230000008859 change Effects 0.000 description 21
- 238000011156 evaluation Methods 0.000 description 19
- 239000000126 substance Substances 0.000 description 19
- 238000005314 correlation function Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 239000003039 volatile agent Substances 0.000 description 4
- 230000008901 benefit Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 239000003350 kerosene Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 239000003208 petroleum Substances 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Examining Or Testing Airtightness (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、画像処理プログラム、画像処理方法及び画像処理装置に関する。 The present invention relates to an image processing program, an image processing method, and an image processing apparatus.
従来、揮発物を検出する方法として、化学的に成分を検出するセンサを用いる方法が知られている。また、監視カメラの画像に基づいて火災や物体移動を検知する技術が知られている(例えば、特許文献1等参照)。
Conventionally, as a method for detecting volatile substances, a method using a sensor that chemically detects a component is known. Further, a technique for detecting a fire or movement of an object based on an image of a surveillance camera is known (see, for example,
しかしながら、センサは検出範囲が狭いため、検出範囲よりも広い範囲において揮発物の存在位置を精度よく検出するためには高価なセンサを多数用意する必要があり、コスト的に現実的でない。また、上記特許文献1等の方法を用いても、画像から揮発物の存在位置を検出することはできない。
However, since the detection range of the sensor is narrow, it is necessary to prepare a large number of expensive sensors in order to accurately detect the existence position of the volatile matter in a range wider than the detection range, which is not realistic in terms of cost. Further, even if the method of
1つの側面では、本発明は、画像を用いて精度よく揮発物の存在位置を検出することが可能な画像処理プログラム、画像処理方法及び画像処理装置を提供することを目的とする。 In one aspect, it is an object of the present invention to provide an image processing program, an image processing method, and an image processing apparatus capable of accurately detecting the presence position of a volatile substance using an image.
一つの態様では、画像処理プログラムは、時間的に前後するタイミングで撮影して得られた第1の画像と、第2の画像とを取得し、前記第1の画像と前記第2の画像の画像領域ごとの相互相関に関する特徴量を比較し、前記特徴量が第1の大きさ以上であり、かつ、前記第1の大きさよりも大きい第2の大きさ以下である画像領域を特定し、特定した前記画像領域を所定割合以上含む範囲を揮発物の存在位置として検出する、処理をコンピュータに実行させるプログラムである。 In one embodiment, the image processing program includes a first image obtained by photographing at a timing chronologically successive, it acquires the second image, the first image of the second image comparing a feature quantity relating to the cross-correlation for each image region, the feature amount is equal to or larger than the first size, and identifies the first image region is the second less magnitude larger than the size, It is a program that causes a computer to execute a process of detecting a range including the specified image region or more as a presence position of a volatile substance.
画像を用いて精度よく揮発物の存在位置を検出することができる。 The location of volatile matter can be detected accurately using images.
≪第1の実施形態≫
以下、揮発物検出システムの第1の実施形態について、図1〜図8に基づいて詳細に説明する。
<< First Embodiment >>
Hereinafter, the first embodiment of the volatile matter detection system will be described in detail with reference to FIGS. 1 to 8.
図1には、第1の実施形態に係る揮発物検出システム100の構成が概略的に示されている。本第1の実施形態の揮発物検出システム100は、例えば、揮発物を取り扱う環境(ガソリンスタンド、石油プラント、家庭用灯油給湯設備の設置箇所など)や、揮発物が外部から持ち込まれるべきでない環境(公共施設、バス、電車、新幹線、駅、空港など)において、揮発物を検出するためのシステムである。揮発物検出システム100は、揮発物を取り扱う環境においては、揮発物の管理(漏れ検出など)のために用いられ、揮発物が持ち込まれるべきでない環境においては、外部から持ち込まれた揮発物の存在を検出するために用いられる。
FIG. 1 schematically shows the configuration of the volatile
揮発物検出システム100は、図1に示すように、複数のカメラ70と、画像処理装置としてのサーバ10と、複数の報知装置72と、を備える。カメラ70、サーバ10、及び報知装置72は、インターネットなどのネットワーク80に接続されている。
As shown in FIG. 1, the volatile
カメラ70は、揮発物を検出する必要のある場所に設置され、動画を撮影し、撮影した動画データをネットワーク80を介してサーバ10に送信する。なお、カメラ70としては、防犯を目的として設置される防犯カメラ(監視カメラ)を流用してもよい。
The
サーバ10は、カメラ70が撮影した動画データを取得し、取得した動画データに基づいて揮発物の存在位置を検出する。また、サーバ10は、揮発物の存在位置を検出した場合に、ネットワーク80を介して報知装置72に通知する。図2(a)には、サーバ10のハードウェア構成が概略的に示されている。図2(a)に示すように、サーバ10は、CPU(Central Processing Unit)90、ROM(Read Only Memory)92、RAM(Random Access Memory)94、記憶部(ここではHDD(Hard Disk Drive))96、ネットワークインタフェース97、及び可搬型記憶媒体用ドライブ99等を備えている。これらサーバ10の構成各部は、バス98に接続されている。サーバ10では、ROM92あるいはHDD96に格納されているプログラム(画像処理プログラムを含む)、或いは可搬型記憶媒体用ドライブ99が可搬型記憶媒体91から読み取ったプログラム(画像処理プログラムを含む)をCPU90が実行することにより、図2(b)に示す各部の機能が実現される。なお、図2(b)には、サーバ10のHDD96等に格納されている動画DB(database)30も図示されている。
The
図2(b)に示すように、サーバ10においては、CPU90がプログラムを実行することにより、動画取得部20、取得部としてのフレーム取得部21、領域分割部22、特定部としての評価部23、検出部24、通知部25として機能する。
As shown in FIG. 2B, in the
動画取得部20は、カメラ70で撮影された動画データを取得し、動画DB30に格納する。動画DB30には、各カメラ70で撮影された動画データが格納される。
The moving
フレーム取得部21は、動画DB30に格納された動画データから所定の2枚のフレームを取得し、領域分割部22に送信する。
The
領域分割部22は、フレーム取得部21が取得した2枚のフレームを検出単位格子に分割し、さらに差分分析単位格子に分割する。ここで、差分分析単位格子は、各フレームの特徴量を比較するための単位格子(微小矩形領域)であり、2枚のフレームの対応する差分分析単位格子の画素値を用いて相互相関関数処理が行われる。検出単位格子は、差分分析単位格子を所定数まとめた矩形領域である。本実施形態では、検出単位格子ごとに揮発物が存在しているか否かの判断が行われる。なお、各格子のサイズは、画像の解像度や動画のフレームレート等により決定されるものであり、固定値ではないものとする。例えば、フレームの解像度が4000×3000ピクセルである場合には、検出単位格子を100×100ピクセル程度とし、差分分析単位格子を10×10ピクセル程度とすることができる。
The
評価部23は、領域分割部22により分割された2枚のフレームを用いて、差分分析単位格子ごとに、相互相関関数のピーク値の位置のズレ幅を評価する。この場合、評価部23は、特定のズレ幅の差分分析単位格子を抽出する。
The
検出部24は、評価部23の評価結果に基づいて、揮発物の存在位置に対応する検出単位格子を特定し、特定した検出単位格子を検出領域とする。
The
通知部25は、検出領域の集中度合いに基づいて警報の強さ(通知なし、注意、警告、警報など)を決定し、報知装置72に対してネットワーク80を介して通知を行う。
The
図1に戻り、報知装置72は、表示部やスピーカ等を有し、サーバ10(通知部25)からの通知を受信し、報知を行う。報知装置72は、例えば、揮発物を検出する必要のある場所に設置され、近傍に存在する人に対して揮発物が漏れていることや揮発物が外部から持ち込まれたことなどを報知する。また、報知装置72は、揮発物検出システム100の管理者が保持可能な端末であったり、管理者が存在する場所に設置される端末であってもよく、この場合には、管理者に対して揮発物が漏れていることや揮発物が外部から持ち込まれたことなどを報知する。
Returning to FIG. 1, the
(サーバの処理)
次に、サーバ10の処理の詳細について、図3のフローチャートに沿って、その他図面を適宜参照しつつ説明する。なお、図3の処理は、所定時間ごと(揮発物の検出タイミングごと)に繰り返し実行される処理である。
(Server processing)
Next, the details of the processing of the
図3の処理では、まず、ステップS10において、フレーム取得部21が、複数のカメラ70のうちの1つにより撮影された動画データからフレームを2枚取得する。すなわち、フレーム取得部21は、カメラ70において時間的に前後するタイミングで撮影された2枚のフレーム(第1の画像と第2の画像)を動画DB30から取得する。この場合、フレーム取得部21は、図4において模式的に示すように、動画DB30に格納されている所定のカメラ70で撮影された動画データから、予め定められた時間間隔で撮影された2枚のフレームを抽出し、取得する。
In the process of FIG. 3, first, in step S10, the
次いで、ステップS12では、領域分割部22が、各フレーム画像を検出単位格子で領域分割する。また、ステップS14では、領域分割部22が、各フレーム画像の検出単位格子を差分分析単位格子で領域分割する。図5(a)〜図5(c)には、検出単位格子、差分分析単位格子、及び画素の大きさの関係が模式的に示されている。図5(a)〜図5(c)に示すように、画素の集合が差分分析単位格子であり、差分分析単位格子の集合が検出単位格子であり、検出単位格子の集合がフレーム画像となる。
Next, in step S12, the
次いで、ステップS16では、評価部23が、2枚のフレームの同一位置の差分分析単位格子毎に、相互相関関数処理を実施する。ここで、相互相関関数処理とは、2枚のフレームの同一の位置に存在する差分分析単位格子内において、2枚のフレームをずらしたときに同一位置となる画素(重なる画素)を特定し、差分分析単位格子内で重なる画素の画素値の積の和を算出する処理を、2枚のフレームをずらしながら繰り返し行う処理である。本処理により得られる積和演算値F(X,Y)は、次式(1)にて表すことができる。
Next, in step S16, the
上式(1)において、Fa(x、y)は、一方のフレームの(x,y)座標の画素値であり、Fb(x,y)は、他方のフレームの(x,y)座標の画素値である。また、X,Yは、相互相関時の縦横ズレ量(0≦X≦Sx、0≦Y≦Sy)であり、x,yは、差分分析単位格子内の縦横座標値である。更に、Sxは、差分分析単位格子の横画素数であり、Syは、差分分析単位格子の縦画素数である。 In the above equation (1), Fa (x, y) is the pixel value of the (x, y) coordinate of one frame, and Fb (x, y) is the (x, y) coordinate of the other frame. It is a pixel value. Further, X and Y are the amount of vertical and horizontal deviations (0 ≦ X ≦ Sx, 0 ≦ Y ≦ Sy) at the time of cross-correlation, and x and y are the vertical and horizontal coordinate values in the difference analysis unit cell. Further, Sx is the number of horizontal pixels of the difference analysis unit cell, and Sy is the number of vertical pixels of the difference analysis unit cell.
次いで、ステップS18では、評価部23が、差分分析単位格子毎に、相互相関関数のピーク値の位置のズレ幅を評価する。この場合、差分分析単位格子内におけるF(X,Y)が最も大きい位置をピーク値の位置とし、差分分析単位格子の中心とピーク値の位置との距離をズレ幅とする。図6(a)には、相互相関関数処理の結果として表れるピーク値の位置が模式的に示されている。このピーク値のズレ幅が大きい差分分析単位格子は、動いている人や物体などを撮影した差分分析単位格子である可能性が高く、ピーク値のズレ幅が小さい差分分析単位格子は、空気揺らぎを撮影した差分分析単位格子である可能性が高いことを意味する。また、ピーク値のズレ幅が0又はおよそ0の差分分析単位格子は、動いていない被写体を撮影した差分分析単位格子である可能性が高いことを意味する。なお、本実施形態において、評価部23が、差分分析単位格子毎に相互相関関数のピーク値の位置のズレ幅を評価する処理は、2枚のフレームそれぞれから抽出した特徴量を比較する処理であるといえる。
Next, in step S18, the
次いで、ステップS20では、評価部23が、特定のズレ幅の差分分析単位格子を抽出する。本実施形態では、例えば、図6(b)に示すように、差分分析単位格子内が区分けされており、ピーク値が領域A2(実線で囲まれた領域のうち破線で囲まれた領域A1を除く領域)に含まれる差分分析単位格子を、特定のズレ幅の差分分析単位格子として扱うこととしている。なお、ピーク値が領域A2に含まれる場合には、空気揺らぎがあるため揮発物が存在している可能性が高いことを意味する。また、ピーク値が領域A1(破線で囲まれた領域内)に含まれる場合には、ピーク値のズレ量が所定の閾値より小さく、被写体(人や物体)に動きがなく、揮発物も存在しない可能性が高いことを意味する。また、ピーク値が領域A3(A1,A2以外の領域)に含まれる場合には、被写体(人や物体)が動いている可能性が高いことを意味する。
Next, in step S20, the
なお、図6(b)の例では、領域A1〜A3が矩形の線で区画されている場合について説明したが、これに限らず、図6(c)に示すように、領域が円形の線で区画されていてもよい。図6(b)の場合には、領域を縦横の範囲で簡易に区画できるため、画像処理を行う上で処理を簡素化できるという利点があり、図6(c)の場合には、処理が複雑になるものの、領域を中心からの距離で規定できるため、画像工学的に適切な処理を行うことができるという利点がある。 In the example of FIG. 6B, the case where the regions A1 to A3 are divided by rectangular lines has been described, but the present invention is not limited to this, and as shown in FIG. 6C, the regions are circular lines. It may be partitioned by. In the case of FIG. 6B, since the area can be easily divided in the vertical and horizontal ranges, there is an advantage that the processing can be simplified in performing the image processing, and in the case of FIG. 6C, the processing can be performed. Although it is complicated, since the area can be defined by the distance from the center, there is an advantage that appropriate processing can be performed in terms of image engineering.
なお、ステップS20においては、検出部24は、ピーク値が差分分析単位格子の中心に無く、領域A1と領域A2を含む領域にピーク値が含まれる差分分析単位格子(ズレ幅が所定の大きさ以下の差分分析単位格子)を、特定のズレ幅の差分分析単位格子として抽出することとしてもよい。
In step S20, the
なお、本実施形態において、特定のズレ幅の差分分析単位格子を抽出する処理は、2枚のフレームから抽出した特徴量の間に変化が検出され、かつ、変化の大きさが所定の大きさ以下である画像領域を特定する処理である。 In the present embodiment, in the process of extracting the difference analysis unit cell of a specific deviation width, a change is detected between the feature quantities extracted from the two frames, and the magnitude of the change is a predetermined magnitude. This is a process for specifying an image area, which is as follows.
図3に戻り、次のステップS22では、検出部24が、検出単位格子内において抽出された差分分析単位格子の数を評価し、抽出された差分分析単位格子が規定以上の割合だけ含まれている検出単位格子を検出領域(揮発物の存在位置)とみなす。例えば、検出部24は、検出単位格子内に含まれる差分分析単位格子のうちの所定割合(例えば60%)以上の差分分析単位格子が、ステップS20において抽出された場合には、その検出単位格子を検出領域とみなす。なお、所定割合については、検出単位格子のサイズや、差分分析単位格子のサイズ、動画のフレームレートや動画の解像度、予め定めた検出判断の精度などに基づいて定められるものとする。
Returning to FIG. 3, in the next step S22, the
次いで、ステップS24では、通知部25が、検出領域が集中している度合いで警報の強さを決定し、報知装置72に通知する。図7(a)〜図7(d)には、検出領域の集中度合いに応じた通知の例が示されている。なお、図7(a)〜図7(d)において、黒塗りで示す検出単位格子は、検出領域を意味する。例えば、通知部25は、図7(a)に示すように複数の検出領域が集中していない場合には、「通知なし」と決定し、図7(b)に示すように検出領域が2つ集中している場合には、「注意」と決定する。また、通知部25は、図7(c)に示すように検出領域が3つ以上5つ未満だけ集中している場合には、「警告」と決定し、図7(d)に示すように検出領域が5つ以上集中している場合には、「警報」と決定する。そして、通知部25は、「通知なし」と決定した場合には、報知装置72への通知を行わず、「注意」、「警告」、「警報」と決定した場合には、報知装置72に対して決定内容に応じた通知を行う。このように、本実施形態では、空気揺らぎが検出された検出単位格子の密集度を検出し、密集している量が多いほど高い警告を発信するようにしている。なお、図7(a)〜図7(d)は一例である。したがって、警報の強さを決定する基準は、例えば、カメラ70の設置位置、被写体からの距離等に基づいて変更してもよい。
Next, in step S24, the
図8(a)〜図8(d)は、図3の処理内容を模式的に示す図である。例えば、図3のステップS10において、図8(a)及び図8(b)に示すような2枚のフレームが取得されたとする。2枚のフレームにおいては、人の動きが撮影されているとともに、揮発物による空気揺らぎも撮影されている。この場合、揮発物が存在し、空気揺らぎが発生している範囲のうち、人の動きと重なっていない範囲(図8(c)において黒塗りで示す範囲)に対応する検出単位格子(図8(d)において黒塗りで示す範囲)が図3のステップS22において検出領域としてみなされることになる。この場合の検出領域の密集度であれば、図7(a)〜図7(d)のうち図7(d)の「警報」に相当するため、通知部25から報知装置72に対して「警報」が通知されることになる。この場合、報知装置72から「警報」が発せられることで、管理者等は揮発物の存在に関する警報を認識することが可能となる。
8 (a) to 8 (d) are diagrams schematically showing the processing contents of FIG. For example, in step S10 of FIG. 3, it is assumed that two frames as shown in FIGS. 8 (a) and 8 (b) are acquired. In the two frames, the movement of a person is photographed, and the air fluctuation caused by volatile substances is also photographed. In this case, the detection unit cell (FIG. 8) corresponding to the range in which the volatile matter is present and the air fluctuation is generated and does not overlap with the movement of the person (the range shown in black in FIG. 8C). The range shown in black in (d)) is regarded as the detection region in step S22 of FIG. In this case, the density of the detection area corresponds to the "alarm" in FIG. 7 (d) of FIGS. 7 (a) to 7 (d). "Alarm" will be notified. In this case, by issuing an "alarm" from the
以上、詳細に説明したように、本第1の実施形態によると、フレーム取得部21は、時間的に前後するタイミングで撮影して得られた2枚のフレームを取得し(S10)、評価部23は、相互相関関数処理により、2枚のフレームの差分分析単位格子ごとの相互相関関数のピーク値の位置のズレ幅を評価することで、各フレームから抽出した特徴量を比較(S16,S18)し、ズレ幅が領域A2(図6(b))に含まれる差分分析単位格子を抽出する(S20)。そして、検出部24は、評価部23が抽出した差分分析単位格子の割合が規定以上である検出単位格子を検出領域(揮発物の存在位置)とみなす(S22)。これにより、本実施形態では、相互相関関数のピーク値の位置のズレ幅が領域A2に含まれるような、空気揺らぎが生じている範囲を揮発物の存在位置とみなすため、画像(動画から抽出したフレーム)を用いて、揮発物の存在位置を精度よく検出することが可能である。また、本実施形態では、カメラの撮影範囲を揮発物の検出範囲とすることができるため、揮発物の成分を検出するセンサよりも広範囲において揮発物を検出することができる。このため、高価なセンサを多数設置する場合に比べ、システムを低コスト化することができる。また、本実施形態では、カメラ70として防犯カメラを流用することができるため、設備の共有化による低コスト化を図ることもできる。また、本実施形態では、相互相関関数のピーク値の位置のズレ幅が領域A2を超える場合には、揮発物の存在位置として扱わないため、動きのある人や物体などが揮発物の近傍に存在していても、揮発物を精度よく検出することができる。
As described in detail above, according to the first embodiment, the
なお、上記実施形態のステップS22では、ステップS20で抽出された差分分析単位格子のすべてを検出領域(揮発物の存在位置)とみなすようにしてもよい。 In step S22 of the above embodiment, all of the difference analysis unit cell extracted in step S20 may be regarded as a detection region (location of volatile matter).
なお、揮発物や水蒸気(湯気)は、その分子の重さにより光の屈折率が異なることが知られている。この屈折率の違いは、空気揺らぎの幅の大きさに表れる。したがって、動画を撮影するカメラを高解像度とし、揺らぎの幅(相互相関関数のピーク値のズレ幅)を高精度に算出することで、水蒸気などと揮発物(灯油、ガソリンなどの石油系物質)との違いを判別することが可能である。この場合、サーバ10では、図6(b)や図6(c)の領域を物質ごとに分けることで、各物質を高精度に検出することが可能である。
It is known that the refractive index of light of volatile matter and steam (steam) differs depending on the weight of the molecule. This difference in refractive index appears in the magnitude of the width of the air fluctuation. Therefore, by setting the camera that shoots moving images to high resolution and calculating the fluctuation width (the deviation width of the peak value of the cross-correlation function) with high accuracy, water vapor and volatile substances (petroleum-based substances such as kerosene and gasoline) It is possible to determine the difference from. In this case, the
≪第2の実施形態≫
以下、第2の実施形態について、図9〜図11に基づいて詳細に説明する。なお、本第2の実施形態の揮発物検出システム100の構成は、第1の実施形態と同様であるが、サーバ10の処理の一部が異なっている。以下、サーバ10の処理について詳細に説明する。
<< Second Embodiment >>
Hereinafter, the second embodiment will be described in detail with reference to FIGS. 9 to 11. The configuration of the volatile
図9には、第2の実施形態のサーバ10の処理の流れがフローチャートにて示されている。なお、図9においては、図3の処理と異なる処理を太枠にて示している。
FIG. 9 shows a flowchart of the processing flow of the
図9に示すように、第2の実施形態では、ステップS10〜S16を第1の実施形態と同様に実行する。具体的には、ステップS10において、フレーム取得部21が、動画DB30に格納されている動画データからフレームを2枚取得し、領域分割部22が、ステップS12、S14において、各フレームを検出単位格子及び差分分析単位格子に分割する。そして、評価部23が、ステップS16において、2枚のフレームの同一位置の差分分析単位格子毎に相互相関関数処理を実施する。
As shown in FIG. 9, in the second embodiment, steps S10 to S16 are executed in the same manner as in the first embodiment. Specifically, in step S10, the
ステップS16の後は、ステップS118に移行し、評価部23は、差分分析単位格子毎に、相互相関関数のピーク値の位置を算出する(図6(a)参照)。
After step S16, the process proceeds to step S118, and the
次いで、ステップS120では、評価部23が、ピーク値のズレ方向別に差分分析単位格子を分類する。本第2の実施形態では、図10(a)に示すように、差分分析単位格子が予め4つの領域に分割されているものとする。そして、評価部23は、ピーク値が図10(a)のどの領域に存在しているかに基づいて、差分分析単位格子それぞれを「↑」、「→」、「↓」、「←」に分類する。ここで、図11(a)には、4つの検出単位格子に含まれる差分分析単位格子が模式的に示されている。図11(a)に示すように、ステップS120が実行されることで、各差分分析単位格子が「↑」、「→」、「↓」、「←」に分類される。なお、空白の差分分析単位格子は、ピーク値のズレ幅が0又はほぼ0である差分分析単位格子を意味している。
Next, in step S120, the
なお、差分分析単位格子は、図10(b)、図10(c)に示すように領域分割されてもよい。図10(b)、図10(c)の場合、ピーク値の位置のズレ方向を8方向に分類することができる。なお、図10(c)の中央の領域にピーク値が存在する場合(ピーク値の位置のズレ量が所定の閾値以下である場合)には、「ズレ無し」に分類されることになる。 The difference analysis unit cell may be divided into regions as shown in FIGS. 10 (b) and 10 (c). In the case of FIGS. 10 (b) and 10 (c), the deviation directions of the peak value positions can be classified into eight directions. When the peak value exists in the central region of FIG. 10C (when the deviation amount of the peak value position is equal to or less than a predetermined threshold value), it is classified as “no deviation”.
図9に戻り、次のステップS122では、評価部23が、隣接する差分分析単位格子の方向と異なる差分分析単位格子を抽出する。具体的には、評価部23は、図11(a)のようにピーク値のズレ方向別に分類された差分分析単位格子から、上下左右方向に隣接する4つの差分分析単位格子すべてと分類(ズレ方向)が異なるものを抽出する。なお、本処理においては、ズレ無しの差分分析単位格子を除外して処理を行うこととしている。図11(b)においては、上下左右方向に関して隣接する4つの差分分析単位格子のいずれかと分類が同一であった差分分析単位格子に「×」を表示している。なお、図11(b)の例では、ステップS122で抽出された差分分析単位格子に、「↑」、「→」、「↓」、「←」のいずれかが表示された状態となっている。
Returning to FIG. 9, in the next step S122, the
なお、ステップS122では、周囲8方向に関して隣接する8つの差分分析単位格子のすべてと分類が異なる差分分析単位格子を抽出するようにしてもよい。なお、検出部24は、隣接する差分分析単位格子のすべてと分類が異なる差分分析単位格子を抽出する場合に限らず、例えば、隣接する所定数(又は所定割合)以上の差分分析単位格子と分類が異なっている差分分析単位格子を抽出するようにしてもよい。
In step S122, a difference analysis unit cell whose classification is different from that of all eight adjacent difference analysis unit cells in the eight surrounding directions may be extracted. The
次いで、ステップS22では、検出部24は、第1の実施形態と同様、検出単位格子内において抽出された差分分析単位格子の数を評価し、抽出された差分分析単位格子が規定以上の割合だけ含まれる検出単位格子を検出領域とみなす。すなわち、本実施形態では、ピーク値のズレ方向が不均一な差分分析単位格子を規定以上の割合だけ含む検出単位格子を空気揺らぎのある範囲(揮発物の存在範囲)とみなす。次いで、ステップS24では、通知部25が、第1の実施形態と同様、複数の検出領域が集中している度合いで警報の強さを決定し、報知装置72に通知する。
Next, in step S22, the
なお、本第2の実施形態においても、前述した第1の実施形態と同様、図8(a)〜図8(d)で示すような処理が行われ、揮発物の存在位置の検出及び報知を行うことが可能となっている。 In the second embodiment as well, as in the first embodiment described above, the processes shown in FIGS. 8 (a) to 8 (d) are performed to detect and notify the presence position of the volatile matter. It is possible to do.
以上、詳細に説明したように、本第2の実施形態によると、フレーム取得部21は、時間的に前後するタイミングで撮影して得られた2枚のフレームを取得し(S10)、評価部23は、相互相関関数処理により、2枚のフレームの差分分析単位格子ごとの相互相関関数のピーク値の位置のズレ方向を評価することで、各フレームから抽出した特徴量を比較し(S118)、ピーク値の位置のズレ方向が不均一な検出単位格子を抽出する(S122)。そして、検出部24は、抽出した検出単位格子が規定以上の割合だけ含まれる検出単位格子を検出領域(揮発物の存在位置)とみなす(S22)。これにより、本第2の実施形態では、ピーク値のズレ方向が不均一で、空気揺らぎが発生している範囲を揮発物の存在位置とみなすので、画像(動画から抽出したフレーム)を用いて、揮発物の存在位置を精度よく検出することが可能である。このように、本実施形態では、カメラの撮影範囲を揮発物の検出範囲とすることができるため、揮発物の成分を検出するセンサよりも広範囲において揮発物を検出することができる。このため、高価なセンサを多数設置する場合に比べ、システムを低コスト化することができる。また、本実施形態では、カメラ70として防犯カメラを流用することができるため、設備の共有化による低コスト化を図ることもできる。
As described in detail above, according to the second embodiment, the
なお、上記各実施形態では、フレーム取得部21は、カメラが撮影した動画から2枚のフレームを取得する場合について説明したが、これに限られるものではない。例えば、フレーム取得部21は、カメラが静止画を撮影する場合には、所定時間間隔で撮影された2枚の画像を取得してもよい。
In each of the above embodiments, the
なお、上記各実施形態では、2枚のフレームから抽出された特徴量の比較として、差分分析単位格子毎に、画素値の相互相関関数のピーク値の位置を求める場合について説明したが、これに限られるものではない。すなわち、フレームから抽出可能なその他の特徴量を比較してもよい。 In each of the above embodiments, as a comparison of the features extracted from the two frames, a case where the position of the peak value of the cross-correlation function of the pixel values is obtained for each difference analysis unit cell has been described. It is not limited. That is, other features that can be extracted from the frame may be compared.
なお、上記各実施形態では、図3や図9の処理をサーバ10が実行する場合について説明したが、これに限られるものではない。例えば、各カメラ70が有するCPUが、図3や図9の処理を実行することとしてもよい。この場合、各カメラ70から、報知装置72に通知が行われることになる。なお、カメラ70が報知装置72と同様の機能を有する場合(報知用のスピーカ等を有する場合)には、報知装置72を省略してもよい。
In each of the above embodiments, the case where the
なお、上記の処理機能は、コンピュータによって実現することができる。その場合、処理装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体(ただし、搬送波は除く)に記録しておくことができる。 The above processing function can be realized by a computer. In that case, a program that describes the processing content of the function that the processing device should have is provided. By executing the program on a computer, the above processing function is realized on the computer. The program describing the processing content can be recorded on a computer-readable recording medium (however, the carrier wave is excluded).
プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD(Digital Versatile Disc)、CD−ROM(Compact Disc Read Only Memory)などの可搬型記録媒体の形態で販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。 When a program is distributed, it is sold in the form of a portable recording medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disc Read Only Memory) on which the program is recorded. It is also possible to store the program in the storage device of the server computer and transfer the program from the server computer to another computer via the network.
プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。 The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes the processing according to the program. The computer can also read the program directly from the portable recording medium and execute the processing according to the program. In addition, the computer can sequentially execute processing according to the received program each time the program is transferred from the server computer.
上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。 The embodiments described above are examples of preferred embodiments of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the gist of the present invention.
なお、以上の第1、第2の実施形態の説明に関して、更に以下の付記を開示する。
(付記1) 時間的に前後するタイミングで撮影して得られた第1の画像と、第2の画像とを取得し、
前記第1の画像から抽出した特徴量と前記第2の画像から抽出した特徴量を比較し、
前記第1の画像から抽出した特徴量と前記第2の画像から抽出した特徴量との間に変化が検出され、かつ、変化の大きさが所定の大きさ以下である画像領域を特定し、
特定した前記画像領域に基づいて揮発物の存在位置を検出する、
処理をコンピュータに実行させることを特徴とする画像処理プログラム。
(付記2) 前記検出する処理では、特定した前記画像領域を所定割合以上含む範囲を前記揮発物の存在位置として検出することを特徴とする付記1に記載の画像処理プログラム。
(付記3)
特定した前記画像領域を所定割合以上含む範囲の大きさに応じた通知を行うことを特徴とする付記1又は2に記載の画像処理プログラム。
(付記4) 前記画像領域を特定する処理では、前記変化の大きさが閾値を超えた場合に、変化が検出されたとすることを特徴とする付記1〜3のいずれかに記載の画像処理プログラム。
(付記5) 時間的に前後するタイミングで撮影して得られた第1の画像と、第2の画像とを取得し、
前記第1の画像から抽出した特徴量と前記第2の画像から抽出した特徴量を比較し、
前記第1の画像から抽出した特徴量と前記第2の画像から抽出した特徴量との間に変化が検出され、かつ、変化の大きさが所定の大きさ以下である画像領域を特定し、
特定した前記画像領域に基づいて揮発物の存在位置を検出する、
処理をコンピュータが実行することを特徴とする画像処理方法。
(付記6) 時間的に前後するタイミングで撮影して得られた第1の画像と、第2の画像とを取得する取得部と、
前記第1の画像から抽出した特徴量と前記第2の画像から抽出した特徴量を比較し、前記第1の画像から抽出した特徴量と前記第2の画像から抽出した特徴量との間に変化が検出され、かつ、変化の大きさが所定の大きさ以下である画像領域を特定する特定部と、
特定した前記画像領域に基づいて揮発物の存在位置を検出する検出部と、
を有することを特徴とする画像処理装置。
(付記7) 前記検出部は、特定した前記画像領域を所定割合以上含む範囲を前記揮発物の存在位置として検出することを特徴とする付記6に記載の画像処理装置。
(付記8) 前記特定部は、前記変化の大きさが閾値を超えた場合に、変化が検出されたとすることを特徴とする付記6又は7に記載の画像処理装置。
(付記9) 時間的に前後するタイミングで撮影して得られた第1の画像と、第2の画像とを取得し、
前記第1の画像から抽出した特徴量と前記第2の画像から抽出した特徴量を比較し、
前記第1の画像から抽出した特徴量と前記第2の画像から抽出した特徴量との間に変化が検出され、かつ、変化の方向の分布が不均一な画像領域を特定し、
特定した前記画像領域に基づいて揮発物の存在位置を検出する、
処理をコンピュータに実行させることを特徴とする画像処理プログラム。
(付記10) 前記検出する処理では、特定した画像領域を所定割合以上含む範囲を前記揮発物の存在位置として検出することを特徴とする付記9に記載の画像処理プログラム。
(付記11) 前記画像領域を特定する処理では、前記変化の大きさが閾値を超えた場合に、変化が検出されたとすることを特徴とする付記9又は10に記載の画像処理プログラム。
(付記12) 時間的に前後するタイミングで撮影して得られた第1の画像と、第2の画像とを取得し、
前記第1の画像から抽出した特徴量と前記第2の画像から抽出した特徴量を比較し、
前記第1の画像から抽出した特徴量と前記第2の画像から抽出した特徴量との間に変化が検出され、かつ、変化の方向の分布が不均一な画像領域を特定し、
特定した前記画像領域に基づいて揮発物の存在位置を検出する、
処理をコンピュータが実行することを特徴とする画像処理方法。
(付記13) 時間的に前後するタイミングで撮影して得られた第1の画像と、第2の画像とを取得する取得部と、
前記第1の画像から抽出した特徴量と前記第2の画像から抽出した特徴量を比較し、前記第1の画像から抽出した特徴量と前記第2の画像から抽出した特徴量との間に変化が検出され、かつ、変化の方向の分布が不均一な画像領域を特定する特定部と、
特定した前記画像領域に基づいて揮発物の存在位置を検出する検出部と、
を有することを特徴とする画像処理装置。
(付記14) 前記検出部は、特定した画像領域を所定割合以上含む範囲を前記揮発物の存在位置として検出することを特徴とする付記13に記載の画像処理装置。
(付記15) 前記特定部は、前記変化の大きさが閾値を超えた場合に、変化が検出されたとすることを特徴とする付記13又は14に記載の画像処理装置。
Regarding the above description of the first and second embodiments, the following additional notes will be further disclosed.
(Appendix 1) The first image and the second image obtained by shooting at the timing before and after the time are acquired, and the images are acquired.
The feature amount extracted from the first image and the feature amount extracted from the second image are compared, and the feature amount is compared.
An image region in which a change is detected between the feature amount extracted from the first image and the feature amount extracted from the second image and the magnitude of the change is equal to or less than a predetermined magnitude is specified.
Detecting the location of volatiles based on the identified image region,
An image processing program characterized by causing a computer to perform processing.
(Appendix 2) The image processing program according to
(Appendix 3)
The image processing program according to
(Supplementary Note 4) The image processing program according to any one of
(Appendix 5) The first image and the second image obtained by shooting at the timing before and after the time are acquired, and the images are acquired.
The feature amount extracted from the first image and the feature amount extracted from the second image are compared, and the feature amount is compared.
An image region in which a change is detected between the feature amount extracted from the first image and the feature amount extracted from the second image and the magnitude of the change is equal to or less than a predetermined magnitude is specified.
Detecting the location of volatiles based on the identified image region,
An image processing method characterized in that processing is performed by a computer.
(Appendix 6) An acquisition unit for acquiring a first image and a second image obtained by taking pictures at timings before and after the time.
The feature amount extracted from the first image is compared with the feature amount extracted from the second image, and between the feature amount extracted from the first image and the feature amount extracted from the second image. A specific part that identifies an image area in which a change is detected and the magnitude of the change is less than or equal to a predetermined magnitude.
A detection unit that detects the presence position of volatile matter based on the identified image region, and
An image processing device characterized by having.
(Appendix 7) The image processing apparatus according to Appendix 6, wherein the detection unit detects a range including the specified image region in a predetermined ratio or more as the presence position of the volatile matter.
(Appendix 8) The image processing apparatus according to Appendix 6 or 7, wherein the specific unit detects a change when the magnitude of the change exceeds a threshold value.
(Appendix 9) The first image and the second image obtained by shooting at the timing before and after the time are acquired, and the images are acquired.
The feature amount extracted from the first image and the feature amount extracted from the second image are compared, and the feature amount is compared.
An image region in which a change is detected between the feature amount extracted from the first image and the feature amount extracted from the second image and the distribution in the direction of change is non-uniform is specified.
Detecting the location of volatiles based on the identified image region,
An image processing program characterized by causing a computer to perform processing.
(Supplementary Note 10) The image processing program according to Supplementary note 9, wherein in the detection process, a range including a specified ratio or more of the specified image region is detected as the presence position of the volatile matter.
(Appendix 11) The image processing program according to
(Appendix 12) The first image and the second image obtained by shooting at timings before and after the time are acquired, and the images are acquired.
The feature amount extracted from the first image and the feature amount extracted from the second image are compared, and the feature amount is compared.
An image region in which a change is detected between the feature amount extracted from the first image and the feature amount extracted from the second image and the distribution in the direction of change is non-uniform is specified.
Detecting the location of volatiles based on the identified image region,
An image processing method characterized in that processing is performed by a computer.
(Appendix 13) An acquisition unit for acquiring a first image and a second image obtained by taking pictures at timings before and after the time.
The feature amount extracted from the first image is compared with the feature amount extracted from the second image, and between the feature amount extracted from the first image and the feature amount extracted from the second image. A specific part that identifies an image area where changes are detected and the distribution in the direction of change is uneven,
A detection unit that detects the presence position of volatile matter based on the identified image region, and
An image processing device characterized by having.
(Supplementary Note 14) The image processing apparatus according to Supplementary Note 13, wherein the detection unit detects a range including a specified image region or more as a presence position of the volatile matter.
(Appendix 15) The image processing apparatus according to Appendix 13 or 14, wherein the specific unit detects a change when the magnitude of the change exceeds a threshold value.
10 サーバ(画像処理装置)
21 フレーム取得部(取得部)
23 評価部(特定部)
24 検出部
10 Server (image processing device)
21 Frame acquisition section (acquisition section)
23 Evaluation Department (Specific Department)
24 Detector
Claims (4)
前記第1の画像と前記第2の画像の画像領域ごとの相互相関に関する特徴量を比較し、
前記特徴量が第1の大きさ以上であり、かつ、前記第1の大きさよりも大きい第2の大きさ以下である画像領域を特定し、
特定した前記画像領域を所定割合以上含む範囲を揮発物の存在位置として検出する、
処理をコンピュータに実行させることを特徴とする画像処理プログラム。 The first image and the second image obtained by shooting at the timing before and after the time are acquired, and the images are acquired.
Comparing the features related to the cross-correlation of the first image and the second image for each image region,
An image region in which the feature amount is equal to or larger than the first size and smaller than or equal to the second size larger than the first size is specified.
A range including the specified image region in a predetermined ratio or more is detected as the presence position of the volatile matter.
An image processing program characterized by causing a computer to perform processing.
前記第1の画像と前記第2の画像の画像領域ごとの相互相関に関する特徴量を比較し、
前記特徴量が第1の大きさ以上であり、かつ、前記第1の大きさよりも大きい第2の大きさ以下である画像領域を特定し、
特定した前記画像領域を所定割合以上含む範囲を揮発物の存在位置として検出する、
処理をコンピュータが実行することを特徴とする画像処理方法。 The first image and the second image obtained by shooting at the timing before and after the time are acquired, and the images are acquired.
Comparing the features related to the cross-correlation of the first image and the second image for each image region,
An image region in which the feature amount is equal to or larger than the first size and smaller than or equal to the second size larger than the first size is specified.
A range including the specified image region in a predetermined ratio or more is detected as the presence position of the volatile matter.
An image processing method characterized in that processing is performed by a computer.
前記第1の画像と前記第2の画像の画像領域ごとの相互相関に関する特徴量を比較し、前記特徴量が第1の大きさ以上であり、かつ、前記第1の大きさよりも大きい第2の大きさ以下である画像領域を特定する特定部と、
特定した前記画像領域を所定割合以上含む範囲を揮発物の存在位置として検出する検出部と、
を有することを特徴とする画像処理装置。
An acquisition unit that acquires a first image and a second image obtained by taking pictures at timings before and after the time.
Comparing a feature quantity relating to the cross-correlation for each image region of the first image and the second image, the feature amount is equal to or larger than the first size, and a second larger than the first size A specific part that identifies an image area that is less than or equal to the size of
A detection unit that detects a range including the specified image region at a predetermined ratio or more as the presence position of the volatile matter, and
An image processing device characterized by having.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017022583A JP6852436B2 (en) | 2017-02-09 | 2017-02-09 | Image processing program, image processing method and image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017022583A JP6852436B2 (en) | 2017-02-09 | 2017-02-09 | Image processing program, image processing method and image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018128936A JP2018128936A (en) | 2018-08-16 |
JP6852436B2 true JP6852436B2 (en) | 2021-03-31 |
Family
ID=63174248
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017022583A Active JP6852436B2 (en) | 2017-02-09 | 2017-02-09 | Image processing program, image processing method and image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6852436B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022004461A1 (en) * | 2020-07-03 | 2022-01-06 | コニカミノルタ株式会社 | Gas region determination device, gas region determination method, learning model generation device, learning model generation method, and program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08305980A (en) * | 1995-03-09 | 1996-11-22 | Nittan Co Ltd | Device and method for flame detection |
JP4623402B2 (en) * | 2000-07-13 | 2011-02-02 | 富士通株式会社 | Fire detection equipment |
JP4729610B2 (en) * | 2008-10-14 | 2011-07-20 | 能美防災株式会社 | Smoke detector |
JP5518359B2 (en) * | 2009-03-31 | 2014-06-11 | 能美防災株式会社 | Smoke detector |
EP2590138B1 (en) * | 2011-11-07 | 2019-09-11 | Flir Systems AB | Gas visualization arrangements, devices, and methods |
US20180052072A1 (en) * | 2015-03-09 | 2018-02-22 | Konica Minolta, Inc. | Gas leak location estimating device, gas leak location estimating system, gas leak location estimating method and gas leak location estimating program |
-
2017
- 2017-02-09 JP JP2017022583A patent/JP6852436B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018128936A (en) | 2018-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yang et al. | Using similarity analysis to detect frame duplication forgery in videos | |
US9881212B2 (en) | Infrared image based early detection of oil spills in water | |
JP4966820B2 (en) | Congestion estimation apparatus and method | |
US9008365B2 (en) | Systems and methods for pedestrian detection in images | |
US11145090B2 (en) | Flame finding with automated image analysis | |
US10366500B2 (en) | Autonomous characterization of water flow from surface water velocity | |
US9811755B2 (en) | Object monitoring system, object monitoring method, and monitoring target extraction program | |
KR102199094B1 (en) | Method and Apparatus for Learning Region of Interest for Detecting Object of Interest | |
CN113343779B (en) | Environment abnormality detection method, device, computer equipment and storage medium | |
US20190096211A1 (en) | Smoke detection device, method for detecting smoke from a fire, and computer program | |
CN111666945A (en) | Storefront violation identification method and device based on semantic segmentation and storage medium | |
JP6547903B2 (en) | Image processing apparatus, image processing method and storage medium | |
JP6852436B2 (en) | Image processing program, image processing method and image processing device | |
Lee et al. | Vibration detection of stay-cable from low-quality CCTV images using deep-learning-based dehazing and semantic segmentation algorithms | |
KR101328266B1 (en) | Apparatus for detecting surface crack of hot slab | |
CN113177496A (en) | Fire point detection method, device, equipment and storage medium | |
CN113808200A (en) | Method and device for detecting moving speed of target object and electronic equipment | |
Costianes et al. | Gray-level co-occurrence matrices as features in edge enhanced images | |
US11288819B2 (en) | Systems and methods for detecting motion during 3D data reconstruction | |
JP5864230B2 (en) | Object detection device | |
CN111967403B (en) | Video movement area determining method and device and electronic equipment | |
KR101577747B1 (en) | Method and system for detecting illegal parking/standing | |
Dinakaran et al. | Image resolution impact analysis on pedestrian detection in smart cities surveillance | |
CN113505643B (en) | Method and related device for detecting violation target | |
WO2024048065A1 (en) | Information processing device, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210222 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6852436 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |