JP7455284B2 - 汚れ判定装置 - Google Patents

汚れ判定装置 Download PDF

Info

Publication number
JP7455284B2
JP7455284B2 JP2023541612A JP2023541612A JP7455284B2 JP 7455284 B2 JP7455284 B2 JP 7455284B2 JP 2023541612 A JP2023541612 A JP 2023541612A JP 2023541612 A JP2023541612 A JP 2023541612A JP 7455284 B2 JP7455284 B2 JP 7455284B2
Authority
JP
Japan
Prior art keywords
dirt
degree
contamination
determination
car
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023541612A
Other languages
English (en)
Other versions
JPWO2023079593A1 (ja
JPWO2023079593A5 (ja
Inventor
健太 久瀬
恭平 濱田
拓弥 橋口
猛 大佐賀
淳志 堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Mitsubishi Electric Building Solutions Corp
Original Assignee
Mitsubishi Electric Corp
Mitsubishi Electric Building Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp, Mitsubishi Electric Building Solutions Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2023079593A1 publication Critical patent/JPWO2023079593A1/ja
Publication of JPWO2023079593A5 publication Critical patent/JPWO2023079593A5/ja
Application granted granted Critical
Publication of JP7455284B2 publication Critical patent/JP7455284B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本開示は、汚れ判定装置、汚れ判定方法、および汚れ判定プログラムに関する。
特許第6616906号公報(特許文献1)には、監視カメラで撮影した撮影データが、欠陥を含んでいる欠陥有り撮影データであるか否かを識別モデルを用いて判定する検知装置が開示されている。この識別モデルは、撮影データから特徴量を抽出し、抽出した特徴に基づいて欠陥有り撮影データを検知するためのモデルである。欠陥有り撮影データは、カメラのレンズに汚れが付着した場合に撮影されたような撮影データである。
特許第6616906号公報
上記識別モデルを用いて判定を行った場合、欠陥でない画像の変化が欠陥データとして認識されてしまう可能性がある。たとえば、エレベーターのかご内を撮影しているような場合、監視カメラのレンズの汚れを検知したいにも関わらず、人や物が映り込んだり、扉の開閉など定期的に変化するものなど、汚れ以外の要素が汚れとして検知されてしまうことがある。
この場合、汚れ以外の要素を排除した状態で撮影された学習用データを増やして学習を行うことで、推定精度を上げることが可能である。しかしながら、このような状態の発生確率が低い場合、学習データを収集することが困難であり、推定精度を上げることが難しくなる。
本開示は、このような課題を解決するためになされたものであって、その目的は、監視カメラのレンズに一定の汚れがある汚れ有状態であるか否かを精度よく判定することができる汚れ判定装置、汚れ判定方法、および汚れ判定プログラムを提供することである。
本開示に係る汚れ判定装置は、取得部と、抽出部と、推定部と、判定部とを備える。取得部は、監視カメラにより撮影された撮影データを定期的に取得する。抽出部は、取得された撮影データの特徴量を抽出する。推定部は、抽出された特徴量に基づく情報を学習済モデルに入力して、監視カメラのレンズの汚れ度合を出力する。判定部は、汚れ度合が汚れ度合に関する閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならない場合に、レンズに一定の汚れがある汚れ有状態であると判定する。
本開示に係る汚れ判定方法は、監視カメラにより撮影された撮影データを定期的に取得するステップと、取得された撮影データの特徴量を抽出するステップと、抽出された特徴量に基づく情報を学習済モデルに入力して、監視カメラのレンズの汚れ度合を出力するステップと、汚れ度合が汚れ度合に関する閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならない場合に、レンズに一定の汚れがある汚れ有状態であると判定するステップとを備える。
本開示に係る汚れ判定プログラムは、コンピュータに、監視カメラにより撮影された撮影データを定期的に取得するステップと、取得された撮影データの特徴量を抽出するステップと、抽出された特徴量に基づく情報を学習済モデルに入力して、監視カメラのレンズの汚れ度合を出力するステップと、汚れ度合が汚れ度合に関する閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならない場合に、レンズに一定の汚れがある汚れ有状態であると判定するステップとを実行させる。
本開示によれば、監視カメラのレンズに一定の汚れがある汚れ有状態であるか否かを精度よく判定することができる。
汚れ判定システムのハードウェア構成の一例を示す図である。 汚れ判定システムの機能ブロック図の一例を示す図である。 汚れ判定装置が実行する第1処理のフローチャートである。 汚れ判定装置が実行する判定処理のフローチャートである。 各種学習済モデルを説明するための図である。 レンズの汚れ度合の時間変化を説明するための図である。 かご内を撮影した画像と汚れ度合いとの関係を説明するための図である。 かご内を撮影した画像と汚れ度合いとの関係を説明するための図である。 かご内を撮影した画像と汚れ度合いとの関係を説明するための図である。 かご内を撮影した画像と汚れ度合いとの関係を説明するための図である。 かご内を撮影した画像と汚れ度合いとの関係を説明するための図である。 第1処理におけるかご内を撮影した画像と汚れ度合いとの関係を説明するための図である。 第2処理におけるかご内を撮影した画像と汚れ度合いとの関係を説明するための図である。 汚れ判定装置が実行する第2処理のフローチャートである。 かご内を撮影した画像と汚れ度合いとの関係を説明するための図である。
以下、図面を参照しつつ、実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
[汚れ判定システム1]
まず、本実施の形態に係る汚れ判定装置200を備える汚れ判定システム1について説明する。図1は、汚れ判定システム1のハードウェア構成の一例を示す図である。
汚れ判定システム1は、映像記録装置100と、エレベーターのかご401と、かご401内に設置された監視カメラ400と、汚れ判定装置200と、端末300とを備える。映像記録装置100は、監視カメラ400および汚れ判定装置200と通信可能である。端末300は、汚れ判定装置200と通信可能である。
監視カメラ400は、ビル内に設置されたエレベーターのかご401内を監視するためのカメラである。監視カメラ400は、たとえば、1秒間に30のフレーム画像を生成する。連続して生成されたフレーム画像は、連続して再生されることで動画像として再生される。
本実施の形態における撮影データは、フレーム画像に相当する。映像記録装置100は、監視カメラ400により撮影された撮影データ(フレーム画像)を記録するとともに、監視カメラ400のレンズの汚れの状態を判定する装置である。
なお、ビル内には複数のかごが設置されていてもよい。この場合、かごごとに監視カメラ400が設置される。映像記録装置100は、かごごとに監視カメラ400のレンズの汚れの状態を判定する。また、監視カメラ400は、エレベーターのかご401内に設置されるものに限らず、エレベーターの乗場、エスカレーター、その他のビル設備を監視するために設置されるものであってもよい。
映像記録装置100は、CPU(Central Processing Unit)111と、ROM(Read Only Memory)112と、RAM(Random Access Memory)113と、記憶部114と、通信インターフェイス115と、I/Oインターフェイス116とを有する。これらは、バスを介して相互に通信可能に接続されている。
CPU111は、映像記録装置100全体を総括的に制御する。CPU111は、ROM112に格納されているプログラムをRAM113に展開して実行する。ROM112は、映像記録装置100が行う処理の処理手順が記されたプログラムを格納する。
RAM113は、CPU111がプログラムを実行する際の作業領域となるものであり、プログラムやプログラムを実行する際のデータ等を一時的に記憶する。また、記憶部114は、不揮発性の記憶装置であり、たとえば、HDD(Hard Disk Drive)やSSD(Solid State Drive)等である。
映像記録装置100は、通信インターフェイス115を介して汚れ判定装置200と通信可能である。I/Oインターフェイス116は、CPU111が監視カメラ400と接続するためのインターフェイスである。
汚れ判定装置200は、CPU211と、ROM212と、RAM213と、記憶部214と、通信インターフェイス215と、I/Oインターフェイス216とを有する。これらは、バスを介して相互に通信可能に接続されている。
CPU211は、汚れ判定装置200全体を総括的に制御する。CPU211は、ROM212に格納されているプログラムをRAM213に展開して実行する。ROM212は、汚れ判定装置200が行う処理の処理手順が記されたプログラムを格納する。
RAM213は、CPU211がプログラムを実行する際の作業領域となるものであり、プログラムやプログラムを実行する際のデータ等を一時的に記憶する。また、記憶部214は、不揮発性の記憶装置であり、たとえば、HDDやSSD等である。
汚れ判定装置200は、通信インターフェイス215を介して映像記録装置100および端末300と通信可能である。I/Oインターフェイス216は、CPU211が表示装置、あるいは入力装置と接続するためのインターフェイスである。
表示装置は、たとえば、ディスプレイである。表示装置では、撮影データを確認したり、レンズの汚れの状態等を確認することができる。入力装置は、たとえば、キーボードやマウスである。たとえば、入力装置の操作により、汚れ判定装置200に指示を与えることができる。
図示しないが、端末300も、汚れ判定装置200と同様に、CPUと、ROMと、RAMと、記憶部と、通信インターフェイスと、I/Oインターフェイスとを有する。端末300は、パーソナルコンピュータ、タブレット端末、スマートフォン等であってもよい。端末300においても、監視カメラ400に記録された撮影データやレンズの汚れの状態等を確認することができる。
図2は、汚れ判定システム1の機能ブロック図の一例を示す図である。映像記録装置100は、取得部121を備える。取得部121は、監視カメラ400が撮影した撮影データを取得し、記憶部114に撮影データ122として記憶する。
汚れ判定装置200は、取得部131と、抽出部132と、正規化部133と、推定部141と、モデル生成部134と、判定部143と、予測部145、通知部144とを備える。
これらの一連の処理により、汚れ判定装置200は、監視カメラ400が撮影した撮影データ122を用いて、学習済モデル135を生成する。また、監視カメラ400が撮影した撮影データ122を取得し、最終的には、端末300に対して汚れの判定結果を通知する。
端末300では、汚れ判定装置200によって通知された判定結果を確認することができる。記憶部214は、モデル生成部134が生成した学習済モデル135および推定部141が生成した推定結果142を記憶する。以下、フローチャート等を用いて処理の流れを説明する。
[第1処理のフローチャート]
汚れ判定装置200は、第1モードと第2モードとを含む実行モードを設定可能である。判定部143は、第1モードが設定されている場合は、時間T1ごとに判定を行う。判定部143は、第2モードが設定されている場合は、時間T1よりも長い時間T2ごとに判定を行う。本実施の形態においては、時間T1=10分であり、時間T2=1日である。
具体的には、汚れ判定装置200は、第1モードが設定されている場合は、第1処理を起動し、第2モードが設定されている場合は、第2処理を起動する。本実施の形態においては、第1モードおよび第2モードのいずれもが設定されているとする。
図3は、汚れ判定装置200が実行する第1処理のフローチャートである。第1処理は、時間T1の周期で汚れを判定する処理である。以下、「ステップ」を単に「S」とも称する。
図3に示すように、第1処理が開始すると、S11において、汚れ判定装置200は、時間T1が経過した否かを判定する。汚れ判定装置200は、時間T1が経過したと判定した場合(S11でYES)、S12に処理を進める。汚れ判定装置200は、時間T1が経過したと判定しなかった場合(S11でNO)、処理をS11に戻す。
S12において、汚れ判定装置200は、判定処理(図4参照)を行う。判定処理は、監視カメラ400で撮影された撮影データ122に基づき、監視カメラ400のレンズの汚れ状態を判定する処理である。
S13において、通知部144は、判定部143の判定結果を端末300に通知し、処理をS11に戻す。このように、第1処理は、時間T1が経過するごとに判定処理を行う。
図4は、汚れ判定装置200が実行する判定処理のフローチャートである。図4に示すように、判定処理が開始すると、S21において、取得部131は、監視カメラ400で撮影された撮影データ122を取得し、処理をS22に進める。撮影データ122は、エレベーターのかご401内が撮影されたデータである。
S22において、抽出部132は、取得された撮影データ122の特徴量を抽出し、処理をS23に進める。S23において、正規化部133は、抽出された特徴量を正規化し、処理をS24に進める。抽出部132および正規化部133の処理は、図5を用いて後述する学習時の処理と同様である。
推定部141は、抽出された特徴量に基づく情報を学習済モデル135に入力して、監視カメラ400のレンズの汚れ度合を出力する。汚れ度合は、監視カメラ400のレンズがどの程度汚れているかを、0~1の数値を用いて示したものである。
具体的には、S24において、推定部141は、抽出された特徴量に基づく情報として、正規化されたデータを、記憶部214が記憶する全ての学習済モデル135(後述する図5の学習済モデルA~E等)に入力し、それぞれ汚れ度合を出力し、処理をS25に進める。S25において、推定部141は、出力された全ての汚れ度合のうち、最も小さい汚れ度合を選択し、処理をS26に進める。
このように、推定部141は、汚れ度合の出力結果に基づき、全ての学習済モデル135(学習済モデルA~E等)のうちのいずれかのモデルを選択している。具体的には、推定部141は、複数のモデルのうち、出力結果が最も小さくなるモデルを選択している。詳細は図5を用いて後述するが、その理由は、出力結果(汚れ度合)が最も小さくなるモデルが、最適なモデルであると考えられるからである。
判定部143は、汚れ度合が閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間(たとえば、8分)が経過するまでに汚れ度合が閾値未満になった場合に、汚れ有状態であると判定する(以下のS26~S28)。
詳細については、具体例も含めて図6~図10を用いて後述するが、本実施の形態においては、汚れとは無関係な要素が「汚れ」として誤検出されることがある。これらの要素は、時間の経過とともに検出されなくなることが想定されるため、所定時間が経過するまでの汚れ度合の推移を確認するようにしている。
ここで、「閾値」は、汚れ度合に関して事前に設定された閾値であり、本実施の形態においては、「0.3」が設定されている。また、「汚れ有状態」は、監視カメラ400のレンズに一定の汚れがある状態であり、具体的には、汚れ度合が閾値以上となった状態を指す。
S26において、推定部141は、汚れ度合が閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならないか否かを判定する。
具体的には、汚れ度合が閾値以上である場合には、所定期間(8分)が経過するまで、特定時間(たとえば、30秒)ごとS21~S25のステップを繰り返す。そして、所定期間(8分)が経過するまでに得られた汚れ度合のうち、最も小さいものを正しい汚れ度合として選択する。S26においては、正しい汚れ度合として選択された値が閾値未満にならないか否かを判定している。
推定部141は、汚れ度合が閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならないと判定した場合(S26でYES)は、処理をS27に進める。S27において、判定部143は、汚れ有状態であると判定し、判定処理を終了する。
推定部141は、汚れ度合が閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならないと判定しなかった(つまり、所定時間が経過するまでに汚れ度合が閾値未満になったと判定した)場合(S26でNO)は、処理をS28に進める。S28において、判定部143は、汚れ有状態でないと判定し、判定処理を終了する。
端末300で、汚れ有状態であることを確認したエレベーターの保守員あるいはビルの管理者は、監視カメラ400のレンズに付着した汚れを取り除くよう清掃する。
[学習済モデル]
図5は、各種学習済モデルを説明するための図である。学習済モデル135は、特徴量に基づく情報が入力された際に、汚れ度合を出力するために学習処理が行われたモデルである。
図5に示すように、学習済モデル135は、学習済モデルA~E等を含む。学習済モデルA~E等の各々は、複数の撮影環境のいずれかで撮影された撮影データ122群を用いて学習処理が行われたモデルである。
学習済モデルAは、撮影環境として朝に撮影された撮影データ122群を用いて学習処理が行われたモデルである。学習済モデルBは、撮影環境として昼に撮影された撮影データ122群を用いて学習処理が行われたモデルである。学習済モデルCは、撮影環境として夜に撮影された撮影データ122群を用いて学習処理が行われたモデルである。朝と昼と夜とでは、光の入り具合によってかご401内の明るさがそれぞれ異なる。
学習済モデルDは、撮影環境としてかご401の扉が開いた状態(戸開状態)で撮影された撮影データ122群を用いて学習処理が行われたモデルである。学習済モデルEは、撮影環境としてかご401の扉が閉じた状態(戸閉状態)で撮影された撮影データ122群を用いて学習処理が行われたモデルである。
本実施の形態においては、予め汚れ度合が判定されている撮影データのセット(撮影データ群)を用いて学習処理を行う。取得部131は、予め汚れ度合が判定されている撮影データ122を学習データとして取得する。
その際、たとえば、学習済モデルD(戸開状態)を生成する場合、予め汚れ度合が判定されており、かつ、戸開状態で撮影された撮影データ122を学習データとして取得する。学習処理のための撮影データ122は、汚れ度合と撮影環境とを事前に紐付けた上で、教師用データとして記憶部114に記憶させておけばよい。
次に、抽出部132は、取得した撮影データ122の特徴量を抽出する。たとえば、撮影データ122の色の特性に基づき特徴量を抽出してもよい。撮影データ122がカラー画像の場合、1画素毎に色の特性データを持っている。具体的には、彩度、明度、色相等がある。また、撮影データ全体としては、配色、ばらつき、構造等がある。これらの色の特性を組み合わせることで、汚れ度合が低い場合と汚れ度合が高い場合とで差が現れる特徴量を抽出する。汚れ度合が高い場合は、レンズに付着している汚れの画像(汚れ部分の撮影領域)は黒色、つまり明るさが低下すると推測される。したがって、汚れが付着していない場合と比較すると特徴量が大きく異なってくると考えられる。このように、汚れ度合が高い場合に差異が現れるように特徴量を抽出すればよい。
次に、正規化部133は、抽出部132が抽出した特徴量を正規化する。モデル生成部134は、正規化された撮影データ122と紐付けられた汚れ度合とに基づき学習処理を行って、学習済モデルを生成する。
判定対象となる撮影データの撮影環境と、学習済モデルの撮影環境とが近い場合、判定部143の判定精度が高くなることが期待できる。たとえば、図7のように、取得された撮影データが戸開状態で撮影されたものであれば、戸開状態で撮影された撮影データ122群を用いて学習処理が行われた学習済モデルDを用いると、より判定精度が高くなることが期待できる。
そして、算出された汚れ度合が最も小さくなるモデルが、判定部143の判定精度が最も高いモデルであることが期待できる。たとえば、戸開状態で撮影された撮影データと、戸閉状態での撮影データを用いた学習済モデルEとでは、扉の状態が異なることにより、その分が汚れ度合として誤検知される可能性が高い。これに対して、戸開状態で撮影された撮影データと、同じく戸開状態での撮影データを用いた学習済モデルDとでは、扉の状態が同じであるため、扉の領域において汚れ度合として誤検知される可能性が低くなる。
このため、上述のように、推定部141は、全ての学習済モデル135(学習済モデルA~E等)を用いて、それぞれの汚れ度合を出力する。そして、汚れ度合が最も小さくなるモデルを最適なモデルとして選択している(最も小さい汚れ度合が、正しい汚れ度合であると判断している)。
なお、学習済モデルは、上記学習済モデルA~Eに限らず、乗客が乗車した状態で学習処理が行われたモデルや、複数の撮影環境が組み合わされた環境で学習処理が行われたモデルを含んでもよい。また、1つの学習済モデルのみを用いて推定部141により汚れ度合を出力させるようにしてもよい。この場合、学習処理が簡易になる。
なお、画像中の類似する領域をひとまとまりとして分割されるようにしてもよい。この場合、推定部141は、分割された領域ごとに汚れ度合を出力するようにする。推定部141は、領域ごとに、「汚れ度合」×「画像全体のうち分割された領域が占める割合」を算出し、これらを合算して「汚れ度合」として算出する。
[汚れ度合の時間変化]
図6は、レンズの汚れ度合の時間変化を説明するための図である。図6において、縦軸は、汚れ度合を示す。横軸は、時間を示す。
図6に示すように、レンズが全く汚れていない場合(「正常時」とも称する)の汚れ度合は0である。閾値は、0.3である。
時刻t1(場面1)おいて、汚れ度合は0である。その後、汚れ度合が急上昇し0.9になった時刻t2が場面2である。このとき、汚れ度合は、閾値(0.3)以上になっている。その後、汚れ度合が急激に下がり、0.1になった時刻t3が場面3である。このとき、汚れ度合(0.1)は、閾値(0.3)を下回っている。このような場合、汚れ有状態ではないと判断される。
次に、汚れ度合が急上昇して0.8になった時刻t4が場面4である。このとき、汚れ度合(0.8)は、閾値(0.3)以上になっている。その後、汚れ度合が急激に下がり、0.4になった時刻t5が場面5である。このとき、汚れ度合(0.4)は、閾値(0.3)以上になったままである。このような場合、汚れ有状態であると判断される。
以下、場面1~5の状況をかご401内を撮影した画像を用いて説明する。図7~図11は、かご401内を撮影した画像と汚れ度合いとの関係を説明するための図である。
場面1では、図7に示すように、かご401内を撮影した画像80a(撮影データ)において、出入口51は、かご401の扉が開いた状態(戸開状態)である。かご401内には、乗客はいない。また、監視カメラ400のレンズには汚れが付着しておらず、汚れ度合=0が出力されている。
場面2では、図8に示すように、かご401内を撮影した画像80bにおいて、かご401内に乗客53が4人乗り込み、出入口51はかご401の扉が閉じた状態(戸閉状態)になっている。また、レンズには汚れが付着している。このとき、汚れ度合=0.9に上がっている。
場面3では、図9に示すように、かご401内を撮影した画像80cにおいて、出入口51の扉が開き(戸開状態)、かご401内の乗客が全員降車している。このとき、レンズの汚れは場面2と同程度付着している。このとき、汚れ度合=0.1に下がっている。
場面1および場面3においては、いずれも戸開状態かつ乗客=0人である。場面1と場面3との画像の違いは、レンズについた汚れのみであるため、汚れ度合=0.1は、純粋にレンズの汚れのみによるものと考えられる。
一方で、場面2と場面3とでは、レンズに汚れがついている点は同じであるものの、場面2において戸閉状態かつ乗客=4人である点で異なる。このため、場面2で汚れ度合=0.9であるのは、レンズの汚れに加えて、かご401の戸開閉状態とかご401内の乗客による誤検知を含むものと考えられる。
以上のように、本実施の形態においては、かご401が戸開状態、乗客=0人、かつ、レンズの汚れなしである場合(場面1)に、汚れ度合=0と算出される。その後、レンズに汚れ度合=0.1の汚れが付着するが、さらに、乗客が4人乗り込み、戸閉状態となることで、汚れ度合が0.9まで上昇する。
この場合、汚れ度合が閾値(0.3)以上になっているものの、実際には、汚れではなく、戸閉状態となり乗客が乗車したことによる画像変化により、汚れ度合が上昇しているだけである。そのため、戸開状態かつ乗客=0人に戻った場面3においては、純粋なレンズの汚れ(汚れ度合=0.1)のみが検知されている。
このように、汚れ度合は、レンズの汚れと、かご401内の積載量(たとえば、乗車人数)と、かご401の戸開閉状態との少なくともいずれかに応じて変化する。このため、本実施の形態においては、推定部141は、汚れ度合が閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過するまでに汚れ度合が閾値未満になったと判定した場合には、汚れ有状態でないと判定している(S26,S28)。なお、汚れ度合が変化する各種要因について、図15を用いてより詳しく説明する。
次に、場面4では、図10に示すように、かご401内を撮影した画像80dにおいて、かご401内に乗客53が2人乗り込み、戸閉状態になっている。さらに、乗客53のいたずらにより、監視カメラ400のレンズの左下が汚されている。このとき、汚れ度合は0.8に上がっている。
場面5では、図11に示すように、かご401内を撮影した画像80eにおいて、戸開状態となり、かご401内の乗客が全員降車している。このとき、汚れ度合=0.4に下がっている。
場面3および場面5においては、いずれも戸開状態かつ乗客=0人である。場面3と場面5との画像の違いは、乗客53がいたずらでつけたレンズの左下の汚れのみである。これにより、汚れ度合は0.1から0.4に上昇しており、閾値(0.3)を超えている。
一方で、場面4と場面5とでは、レンズに汚れがついている点は同じであるものの、場面4において戸閉状態かつ乗客=2人である点で異なる。このため、場面4で汚れ度合=0.8であるのは、レンズの汚れに加えて、かご401の戸開閉状態とかご401内の乗客による誤検知を含むものと考えられる。
このように、戸開状態、乗客=0人、かつ、レンズの汚れありである場合(場面3)に、汚れ度合=0.1と算出されている。その後、乗客が2人乗り込み、戸閉状態となり、いたずらによるレンズの汚れで、汚れ度合が0.8まで上昇する。
この場合、汚れ度合が閾値(0.3)を超えているが、戸閉状態となり乗客が乗車したことによる画像変化による汚れ度合の上昇分も含まれる。そのため、戸開状態かつ乗客=0人に戻った場面5において、純粋なレンズの汚れ(汚れ度合=0.4)のみが検知される。そして、この場合においても、汚れ度合(0.4)が閾値(0.3)未満とならないため、汚れ有状態であると判定される。
このように、判定部143は、汚れ度合が閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならない場合に、汚れ有状態であると判定している(S26,S27)。
ここで、学習済モデルを用いて汚れ度合を推定しようとした場合、汚れ以外の要素(たとえば、戸開閉状態や乗客)による誤検知(値が大きくなってしまうこと)が発生する可能性がある。この場合、汚れと汚れ以外の要素を区別可能にするために、より精度の高い学習処理を行うことで、汚れ度合の推定精度を高めることが考えられる。そのためには、汚れ以外の要素を排除した状態での学習データを増やして学習の精度を高めることが考えられる。しかしながら、このような状態の発生確率が低い場合、学習データを収集することが困難であり、推定精度を上げることが難しくなる。
このため、本実施の形態においては、学習済モデルによる推定以外の手法も併用して、汚れ以外の要素を除外し、これにより汚れ度合の推定精度を高めた。上述したように、「汚れ」による汚れ度合は時間が経過しても減少することはなく、「汚れ以外の要素」による汚れ度合は時間の経過とともに減少する。たとえば、汚れ以外の要素である「戸開閉状態」は時間の経過とともに戸開状態に戻り、乗客は時間の経過とともに0人に戻る。このように、汚れ以外の要素により閾値以上となるケースが発生する。このため、所定期間待つことで汚れ以外の要素による誤検出を減少させ、極力、汚れのみによる汚れ度合が検出できるように構成した。このようにすることで、学習データを追加することなく、汚れ有状態であるか否かを精度よく判定することができる。
次に、第1処理および第2処理におけるかご401内を撮影した画像と汚れ度合いとの関係を説明する。図12は、第1処理におけるかご401内を撮影した画像と汚れ度合いとの関係を説明するための図である。
第1処理においては、図3,図4のフローチャートを用いて説明したように、T1(10分)ごとに判定処理を行う。これに対して、第2処理においては、図14のフローチャートを用いて後述するようにT2(1日)ごとに判定処理を行う。
まず、第1処理において10分ごとに判定処理を行う例について説明する。図12に示すように、画像80jにおいて、出入口51は戸閉状態であり、かご401内には乗客53がいない。また、監視カメラ400のレンズには汚れが付着しておらず、汚れ度合は0である。
この状態以降、10分ごとに判定処理が行われる。その際、汚れ度合が閾値以上と判定された場合は、所定時間が経過しても閾値以上であるか否かが判断される。図6~図11を用いて説明したように、場面2(t2)のように汚れ度合が閾値以上であると判断された場合であっても、所定時間が経過するまでの場面3(t3)において、汚れ度合が閾値未満になっている場合は、汚れ有状態ではないと判断される。
一方、場面4(t4)のように汚れ度合が閾値以上であると判断された場合であって、所定時間が経過しても、場面3(t5)において汚れ度合が閾値以上のままであるので、汚れ有状態であると判断される。
画像80jの状態において、たとえば、乗客のいたずらによって監視カメラ400のレンズが汚されたとする。画像80jの状態から10分が経過した状態が画像80kである。画像80kにおいて、出入口51は戸閉状態であり、かご401内には乗客53がいない。ただし、監視カメラ400のレンズの右側には汚れが付着しており、汚れ度合は0.4になっている。この場合、汚れ度合が閾値(0.3)以上であるため、汚れ有状態であると判断される。
このように、第1処理においては、10分ごとに判定処理を行うため、いたずらによってレンズが汚された場合のような、突発的な汚れを検出することができる。
次に、第2処理において1日ごとに判定処理を行う例について説明する。図13は、第2処理におけるかご401内を撮影した画像と汚れ度合いとの関係を説明するための図である。図13に示すように、画像80fにおいて、出入口51は戸開状態であり、かご401内には乗客53がいない。また、監視カメラ400のレンズには汚れが付着しておらず、汚れ度合は0である。
1日ごとに判定処理が実行され、画像80fの状態から30日が経過した(30回の判定処理が行われた)状態が画像80gである。画像80gにおいても、出入口51は戸開状態であり、かご401内には乗客53がいない。ただし、監視カメラ400のレンズには汚れが付着しており、汚れ度合は0.1になっている。
なお、判定処理が実行されるタイミングにおいて、乗客がおり、これにより閾値以上となる場合には、所定期間内に汚れ度合が閾値未満になるかが判定される。本例では、乗客が降車したタイミングで、汚れ度合は0.1まで低下する。
画像80gの状態から30日が経過した(30回の判定処理が行われた)状態が画像80hである。画像80fの状態から数えると、60日が経過している。画像80hにおいて、も出入口51は戸開状態であり、かご401内には乗客53がいない。ただし、監視カメラ400のレンズにはさらに汚れが蓄積されており、汚れ度合は0.2になっている。
画像80hの状態から30日が経過した状態(30回の判定処理が行われた)が画像80iである。画像80fの状態から数えると、90日が経過している。画像80gにおいても、出入口51は戸開状態であり、かご401内には乗客53がいない。ただし、監視カメラ400のレンズにはさらに汚れが蓄積されており、汚れ度合は0.3になっている。この場合、汚れ度合が閾値に到達しているので、汚れ有状態であると判断される。
画像80f~80iによれば、汚れ度合は、30日ごとに0.1ずつ増加している。このため、たとえば、0日~60日までの汚れ度合の経時変化から、さらに30日後の90日後には、汚れ度合が閾値に到達することを予測することができる。これにより、保守員は、レンズのクリーニングをすべき時期を知ることができる。以下、第2処理について、フローチャートを用いて説明する。
[第2処理のフローチャート]
上述したように第1処理は、時間T1(10分)の周期で汚れを判定する処理である。これに対して、第2処理は、時間T2(1日)の周期で汚れを判定する。さらに、第2処理は、将来のレンズの汚れを推定する。
以下、第2処理について説明する。図14は、汚れ判定装置200が実行する第2処理のフローチャートである。
図14に示すように、第2処理が開始すると、S31において、汚れ判定装置200は、時間T2が経過した否かを判定する。汚れ判定装置200は、時間T2が経過したと判定した場合(S31でYES)、S32に処理を進める。汚れ判定装置200は、時間T2が経過したと判定しなかった場合(S31でNO)、処理をS31に戻す。
S32において、汚れ判定装置200は、判定処理を行い、処理をS33に進める。つまり、汚れ判定装置200は、時間T2が経過するごとに判定処理等を行う。
S33において、汚れ判定装置200の予測部145は、汚れ度合いを記憶部214に記憶し、処理をS33に進める。
S34において、予測部145は、記憶部214に記憶された汚れ度合いの時系列データに基づき、汚れ有状態であると判定される時期を推定し、処理をS35に進める。
図13を用いて示した例では、0日目は汚れ度合=0である。30日目は汚れ度合=0.1である。60日目は汚れ度合=0.2である。現在、60日目であるとする。記憶部214は、0日目~60日目までの汚れ度合のデータを記憶している。
そして、これらのデータによれば、30日ごとに汚れ度合が0.1ずつ増加するため、予測部145は、90日目(30日後)に汚れ度合が閾値である0.3に到達すると予測する。つまり、汚れ有状態であると判定される時期は、30日後であると予測する。
たとえば、予測部145は、汚れ度合いの時系列データを用いて、最小自乗法等により予測モデルを生成させてもよい。予測部145は、予測モデルを用いて、汚れ有状態であると判定される時期を予測する。
S35において、通知部144は、判定部143の判定結果および予測部145の推定結果を端末300に送信し、S31に処理を戻す。
[汚れ度合が変化する各種要因]
図6~図11等で説明したように、汚れ度合は、「レンズの汚れ」と、「かご401内の積載量」と、「かご401の戸開閉状態」との少なくともいずれかに応じて変化する。ここでは、汚れ度合が変化する各種要因について、図15を用いてより詳しく説明する。
図15は、かご401内を撮影した画像と汚れ度合いとの関係を説明するための図である。図15に示すように、かご401内を撮影した画像80jにおいて、出入口51は戸開状態であり、かご401内には乗客がいない。また、監視カメラ400のレンズには汚れが付着しておらず、汚れ度合=0が出力されている。
図6~図11の例では、かご401内に乗客が乗車した例について説明したが、かご401内を撮影した画像80kに示すように、かご401内には乗客とともに大きな荷物が積載される場合もある。上記「かご401内の積載量」としては、乗車人数のみならず荷物の量も含まれる。なお、「かご401内の積載量」は、画像80kから推定される乗客や荷物の総面積を示すものあってもよい。
画像80kの例では、かご401内に乗客とともに荷物が積載されることにより、汚れ度合は0.2まで上昇している。この場合、かご401内の積載量に応じて汚れ度合が変化しているが、目的階に到着すると乗客および荷物はかご401の外に出るため、汚れ度合は再び0に戻る。このため、乗客および荷物に基づき、「汚れ有状態」とは判定されない。
また、上述の「かご401の戸開閉状態」には、「乗場の状態」も含まれる。かご401内を撮影した画像80lでは、画像80jと同じく戸開状態であるが、乗場の状態が変化している。具体的には、画像80jでは日中の太陽の光で乗場が明るいのに対し、画像80lでは夜になって乗場が暗いために汚れ度合が0.15まで上昇している。上述のように、戸開状態と戸閉状態とでは汚れ度合が異なるが、戸開状態においては時間帯に応じても汚れ度合が異なる。
図5の例においては、撮影環境として、朝と昼と夜とで学習済モデルを異ならせ(学習済モデルA~C)、戸開状態と戸閉状態とで学習済モデルを異ならせる(学習済モデルD,E)ように構成することで、汚れ度合の判定精度を高めるようにした。本例では、たとえば、戸開状態においてさらに時間帯に応じて学習モデルを異ならせることで、汚れ度合の判定精度をさらに高めることができる。
また、「乗場の状態」には、乗場の混雑状況も含まれる。たとえば、出勤時や退勤時などのピーク時間帯(戸開状態において複数の待ち客が映り込む)と、閑散時(乗場に人がいない)とでは、汚れ度合が異なる。この場合においても、たとえば、撮影環境として、ピーク時間帯とそれ以外の時間帯とで学習モデルを異ならせることで、汚れ度合の判定精度をさらに高めることができる。
上記以外にも、汚れ度合は、「かご401内に設置された監視カメラ400の状態」によっても変化する。たとえば、かご401内を撮影した画像80mでは、乗客のいたずら等により、かご401内に設置された監視カメラ400の設置方向がずれてしまい、画像80jに比べると、かご401のやや左側が撮影されている。これにより、画像80jと画像80mとの差分により、汚れ度合が0.4に変化している。
本ケースでは、所定時間が経過しても汚れ度合が低下しないため、「汚れ有状態」として誤検知される。この場合、エレベーターの保守員あるいはビルの管理者は、監視カメラ400の設置状態を確認し、監視カメラ400を正常な設置状態に戻す作業を行う。これにより、汚れ度合が0に戻り、汚れ度合が正常に検知されるようになる。「かご401内に設置された監視カメラ400の状態」としては、上記のような監視カメラ400の設置方向や設置位置であってもよいし、監視カメラ400の焦点がぼやけているような状態も想定され得る。
[主な構成および効果]
以下、前述した実施の形態の主な構成および効果を説明する。
(1) 汚れ判定装置200は、取得部131と、抽出部132と、推定部141と、判定部143とを備える。取得部131は、監視カメラ400により撮影された撮影データ122を定期的に取得する。抽出部132は、取得された撮影データ122の特徴量を抽出する。推定部141は、抽出された特徴量に基づく情報を学習済モデル135に入力して、監視カメラ400のレンズの汚れ度合を出力する。判定部143は、汚れ度合が汚れ度合に関する閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならない場合に、レンズに一定の汚れがある汚れ有状態であると判定する。所定期間待つことで汚れ以外の要素による誤検出を減少させ、監視カメラのレンズに一定の汚れがある汚れ有状態であるか否かを精度よく判定することができる。
(2) 学習済モデル135は、複数のモデル(学習済モデルA~E等)を含む。複数のモデルの各々は、複数の撮影環境のいずれかで撮影された撮影データ122群を用いて、特徴量に基づく情報が入力された際に、汚れ度合を出力するために学習処理が行われたモデルである。推定部141は、複数のモデルのうちのいずれかのモデルを選択し、選択した当該モデルを用いて汚れ度合を出力する。撮影環境に応じて適切なモデルを用いることで、周囲の環境変化による誤検出を減少させ、汚れ有状態であるか否かを判定することができる。
(3) 推定部141は、複数のモデルのうち、出力結果が最も小さくなるモデルを選択する。撮影環境に応じて適切なモデルを用いることで、周囲の環境変化による誤検出を減少させ、汚れ有状態であるか否かを判定することができる。
(4) 汚れ判定装置200は、第1モードと第2モードとを含む実行モードを設定可能である。判定部143は、第1モードが設定されている場合は、第1周期ごとに判定を行う。判定部143は、第2モードが設定されている場合は、前記第1周期よりも長い第2周期ごとに判定を行う。これにより、第1モードにより突発的に発生する汚れを検知することができ、第2モードにより経時変化により蓄積する汚れを検知することができる。経時変化により蓄積する汚れを検知することで、汚れ有状態となってレンズのクリーニングが必要となる時期を予想することができる。
(5) 撮影データ122は、エレベーターのかご401内が撮影されたデータである。汚れ度合は、レンズの汚れとかご401内の積載量(乗車人数や荷物の量)とかご401の戸開閉状態との少なくともいずれかに応じて変化する。これにより、所定時間が経過しても汚れ度合が低下しないレンズの汚れと、所定時間が経過するまでに汚れ度合を低下させる可能性のある積載量および戸開閉状態を識別して、汚れ有状態であるか否かを精度よく判定することができる。
(6) 汚れ判定方法は、監視カメラ400により撮影された撮影データ122を定期的に取得するステップと、取得された撮影データ122の特徴量を抽出するステップと、抽出された特徴量に基づく情報を学習済モデル135に入力して、監視カメラ400のレンズの汚れ度合を出力するステップと、汚れ度合が汚れ度合に関する閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならない場合に、レンズに一定の汚れがある汚れ有状態であると判定するステップとを備える。所定期間待つことで汚れ以外の要素による誤検出を減少させ、監視カメラのレンズに一定の汚れがある汚れ有状態であるか否かを精度よく判定することができる。
(7) 汚れ判定プログラムは、コンピュータに、監視カメラ400により撮影された撮影データ122を定期的に取得するステップと、取得された撮影データ122の特徴量を抽出するステップと、抽出された特徴量に基づく情報を学習済モデル135に入力して、監視カメラ400のレンズの汚れ度合を出力するステップと、汚れ度合が汚れ度合に関する閾値以上になり、かつ、汚れ度合が閾値以上になってから所定時間が経過しても汚れ度合が閾値未満にならない場合に、レンズに一定の汚れがある汚れ有状態であると判定するステップとを実行させる。所定期間待つことで汚れ以外の要素による誤検出を減少させ、監視カメラのレンズに一定の汚れがある汚れ有状態であるか否かを精度よく判定することができる。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1 汚れ判定システム、51,52 出入口、53 乗客、80a~80i 画像、100 映像記録装置、111,211 CPU、112,212 ROM、113,213 RAM、114,214 記憶部、115,215 通信インターフェイス、116,216 I/Oインターフェイス、121 取得部、122 撮影データ、131 取得部、132 抽出部、133 正規化部、134 モデル生成部、135 学習済モデル、141 推定部、142 推定結果、143 判定部、144 通知部、200 汚れ判定装置、300 端末、400 監視カメラ。

Claims (4)

  1. 監視カメラにより撮影された撮影データを定期的に取得する取得部と、
    取得された前記撮影データの特徴量を抽出する抽出部と、
    抽出された前記特徴量に基づく情報を学習済モデルに入力して、前記監視カメラのレンズの汚れ度合を出力する推定部と、
    前記汚れ度合が前記汚れ度合に関する閾値以上になり、かつ、前記汚れ度合が前記閾値以上になってから所定時間が経過しても前記汚れ度合が前記閾値未満にならない場合に、前記レンズに一定の汚れがある汚れ有状態であると判定する判定部とを備え、
    前記学習済モデルは、複数のモデルを含み、
    前記複数のモデルの各々は、複数の撮影環境のいずれかで撮影された撮影データ群を用いて、前記特徴量に基づく情報が入力された際に、前記汚れ度合を出力するために学習処理が行われたモデルであり、
    前記推定部は、前記複数のモデルの各々による前記汚れ度合の出力結果に基づき、前記複数のモデルのうちのいずれかのモデルを選択する、汚れ判定装置。
  2. 前記推定部は、前記複数のモデルのうち、前記汚れ度合の出力結果が最も小さくなるモデルを選択する、請求項1に記載の汚れ判定装置。
  3. 前記汚れ判定装置は、第1モードと第2モードとを含む実行モードを設定可能であり、
    前記判定部は、
    前記第1モードが設定されている場合は、第1周期ごとに判定を行い、
    前記第2モードが設定されている場合は、前記第1周期よりも長い第2周期ごとに判定を行う、請求項1または請求項2に記載の汚れ判定装置。
  4. 前記撮影データは、エレベーターのかご内が撮影されたデータであり、
    前記汚れ度合は、前記レンズの汚れと前記かご内の積載量と前記かごの戸開閉状態との少なくともいずれかに応じて変化する、請求項1~請求項3のいずれか1項に記載の汚れ判定装置。
JP2023541612A 2021-11-02 2021-11-02 汚れ判定装置 Active JP7455284B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/040401 WO2023079593A1 (ja) 2021-11-02 2021-11-02 汚れ判定装置、汚れ判定方法、および汚れ判定プログラム

Publications (3)

Publication Number Publication Date
JPWO2023079593A1 JPWO2023079593A1 (ja) 2023-05-11
JPWO2023079593A5 JPWO2023079593A5 (ja) 2023-10-04
JP7455284B2 true JP7455284B2 (ja) 2024-03-25

Family

ID=86240779

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023541612A Active JP7455284B2 (ja) 2021-11-02 2021-11-02 汚れ判定装置

Country Status (2)

Country Link
JP (1) JP7455284B2 (ja)
WO (1) WO2023079593A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003189294A (ja) 2001-12-13 2003-07-04 Secom Co Ltd 画像監視装置
JP2019029897A (ja) 2017-08-01 2019-02-21 パナソニックIpマネジメント株式会社 画像監視装置、画像監視方法および画像監視プログラム
JP2019096320A (ja) 2017-11-24 2019-06-20 フィコサ アダス,ソシエダッド リミタダ ユニペルソナル きれい又はよごれたキャプチャ画像判定
WO2019146097A1 (ja) 2018-01-29 2019-08-01 三菱電機ビルテクノサービス株式会社 欠陥のある撮影データの検知装置及び検知システム
JP2020190181A (ja) 2019-05-17 2020-11-26 株式会社Lixil 判定装置、判定方法、及びプログラム
WO2020250296A1 (ja) 2019-06-11 2020-12-17 三菱電機ビルテクノサービス株式会社 画像処理装置、画像処理方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003189294A (ja) 2001-12-13 2003-07-04 Secom Co Ltd 画像監視装置
JP2019029897A (ja) 2017-08-01 2019-02-21 パナソニックIpマネジメント株式会社 画像監視装置、画像監視方法および画像監視プログラム
JP2019096320A (ja) 2017-11-24 2019-06-20 フィコサ アダス,ソシエダッド リミタダ ユニペルソナル きれい又はよごれたキャプチャ画像判定
WO2019146097A1 (ja) 2018-01-29 2019-08-01 三菱電機ビルテクノサービス株式会社 欠陥のある撮影データの検知装置及び検知システム
JP2020190181A (ja) 2019-05-17 2020-11-26 株式会社Lixil 判定装置、判定方法、及びプログラム
WO2020250296A1 (ja) 2019-06-11 2020-12-17 三菱電機ビルテクノサービス株式会社 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
WO2023079593A1 (ja) 2023-05-11
JPWO2023079593A1 (ja) 2023-05-11

Similar Documents

Publication Publication Date Title
CN111144247B (zh) 一种基于深度学习的自动扶梯乘客逆行检测方法
JP4631806B2 (ja) 物体検出装置、物体検出方法および物体検出プログラム
US8660700B2 (en) Video-based system and method of elevator door detection
JP5459674B2 (ja) 移動物体追跡システムおよび移動物体追跡方法
CN109409315B (zh) 一种atm机面板区域遗留物检测方法及***
KR20090086898A (ko) 비디오 카메라를 사용한 연기 검출
US20160335552A1 (en) Method and sytem for crowd detection in an area
CN110526058A (zh) 电梯门监控***、电梯***和电梯门监控方法
CN110189355A (zh) 安全疏散通道占用检测方法、装置、电子设备及存储介质
JP6199216B2 (ja) エレベータ監視装置
JP6616906B1 (ja) 欠陥のある撮影データの検知装置及び検知システム
CN112347862A (zh) 一种基于机器视觉的电梯门故障实时检测方法
KR101651410B1 (ko) 다중시차 행위인식 기반의 폭력 검출시스템 및 검출방법
JP7455284B2 (ja) 汚れ判定装置
EP2447912B1 (en) Method and device for the detection of change in illumination for vision systems
JP2009032116A (ja) 顔認証装置、顔認証方法および入退場管理装置
Wang et al. Specular reflection removal for human detection under aquatic environment
Suresh et al. An efficient low cost background subtraction method to extract foreground object during human tracking
KR102525491B1 (ko) 구조물 손상검출 보고서 제공 방법
CN115797770A (zh) 考虑目标相对运动的连续图像目标检测方法、***及终端
CN114359839A (zh) 识别电动车进入电梯的方法及***
JP6977200B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN113936250A (zh) 一种电梯门开闭幅度计算方法、装置、计算机设备和介质
CN115035543A (zh) 一种基于大数据的移动轨迹预测***
JP2017190193A (ja) システム機器の異常診断装置、エレベーターの異常診断装置及びエレベーターの異常診断方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230707

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230707

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240312

R150 Certificate of patent or registration of utility model

Ref document number: 7455284

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150