JP2019041207A - Monitoring system and monitoring method - Google Patents
Monitoring system and monitoring method Download PDFInfo
- Publication number
- JP2019041207A JP2019041207A JP2017161060A JP2017161060A JP2019041207A JP 2019041207 A JP2019041207 A JP 2019041207A JP 2017161060 A JP2017161060 A JP 2017161060A JP 2017161060 A JP2017161060 A JP 2017161060A JP 2019041207 A JP2019041207 A JP 2019041207A
- Authority
- JP
- Japan
- Prior art keywords
- monitoring
- person
- image processing
- area
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 84
- 238000000034 method Methods 0.000 title claims description 16
- 238000012545 processing Methods 0.000 claims abstract description 101
- 238000001514 detection method Methods 0.000 claims abstract description 88
- 230000009471 action Effects 0.000 claims abstract description 19
- 230000006399 behavior Effects 0.000 claims description 60
- 230000006870 function Effects 0.000 claims description 4
- 230000008034 disappearance Effects 0.000 abstract description 4
- 239000013598 vector Substances 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 239000004020 conductor Substances 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000012806 monitoring device Methods 0.000 description 4
- 229910003460 diamond Inorganic materials 0.000 description 3
- 239000010432 diamond Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 108700028516 Lan-7 Proteins 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000004884 risky behavior Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
- Train Traffic Observation, Control, And Security (AREA)
Abstract
Description
本発明は、監視システム及び監視方法に係り、例えば、鉄道のようにプラットホームに車両が進入するエリアを監視する監視システム及び監視方法に関する。 The present invention relates to a monitoring system and a monitoring method, for example, a monitoring system and a monitoring method for monitoring an area where a vehicle enters a platform such as a railway.
駅ホームにおける乗客等の安全確保の為に、画像処理を用いた監視システムが知られている(例えば特許文献1、2参照)。特許文献1に開示の技術では、ホーム監視における外乱と転落者を区別し、転落者のみを正確に検出して発報等する。また、特許文献2に開示の技術では、異なるホームの画像表示に伴う混乱を最小限にとどめるとともに、ホームと列車の状況を判断する検出手段を不要とし、構成が簡単で設置が容易なシステムが提案されている。
A monitoring system using image processing is known for ensuring the safety of passengers and the like in a station platform (see, for example,
ところで、画像処理による検知処理では、画像処理検知エリアの設定、現地環境に応じた画像処理パラメータのチューニング、カメラ設定等、システム運用前に現地にて技術者が手動で調整する必要があり、作業ボリュームが非常に多くコストと時間がかかっていた。運用開始後も検知精度が顧客要求に満たない場合は、再度、技術者が現地に赴いて調整する必要があり別の技術が求められていた。すなわち、検知精度に関して、定期的に技術者が現地で画像処理結果を基に判別することが求められ、この点でも別の技術が必要とされていた。別の観点では、画像処理で危険行動を検知した際に警報を出力して駅員が当該映像を見て最終判断することが多く、また、その情報を蓄積して危険予測に使用する技術が求められていた。 By the way, in detection processing by image processing, it is necessary for the engineer to manually adjust the system operation before setting the image processing detection area, tuning image processing parameters according to the local environment, camera settings, etc. The volume was very large and costly and time consuming. If the detection accuracy did not meet customer requirements even after the start of operation, it was necessary for engineers to visit the site again to make adjustments, and another technology was required. That is, regarding the detection accuracy, it is required that an engineer periodically discriminates on the basis of the image processing result on the site, and another technique is also required in this respect. From another viewpoint, when a dangerous action is detected by image processing, an alarm is often output and the station staff often makes a final judgment by looking at the video, and there is a need for a technology that accumulates this information and uses it for risk prediction. It was done.
本発明は、このような状況に鑑みなされたもので、上記課題を解決することを目的とする。 The present invention has been made in view of such a situation, and an object thereof is to solve the above problems.
本発明は、車両が入線するプラットホームを監視エリアとして撮影する監視カメラと、前記監視カメラによって撮影された映像に対して画像処理を行って警告レベルを判断するデータ処理装置とを備える監視システムであって、前記データ処理装置は、前記監視エリアの映像に含まれる人物を特定し、前記人物の出現点及び消失点を蓄積し、蓄積した結果をもとに、前記監視カメラの監視エリアに含まれる物体の位置を学習するとともに、前記人物の行動エリアを判別し、前記人物に関して危険行動を判断するための危険行動検知エリアを設定する。
また、前記データ処理装置は、前記プラットホームに入線した前記車両の特徴を画像処理により検出し、検出した特徴を時刻情報と関連付けて蓄積するとともに、前記車両の運行情報と照合し前記車両の特徴の検出結果に反映させてもよい。
また、前記データ処理装置は、前記プラットホームに出力される音声データを取得する機能を有し、前記プラットホーム上の前記危険行動検知エリアにおける画像フレーム間の前記人物の移動量から一定速度以上の人物の動作を危険行動であると判断し、前記取得した音声データが所定の参照データと一致する場合、前記音声データより後に危険行動と認識された人物について、警告レベルを高くしてもよい。
また、前記データ処理装置は、前記危険行動が記録された映像を、前記危険行動の発生位置、発生時刻及び警告レベル情報を関連づけて記録し、所定時間帯において前記危険行動の出現頻度が所定以上の場合に、前記所定時間帯において、注意を促す表示出力を行ってもよい。
本発明は、車両が入線するプラットホームを監視エリアとして撮影する監視カメラによって撮影された映像に対して画像処理を行って警告レベルを判断するデータ処理を行う監視方法であって、前記監視エリアの映像に含まれる人物を特定し、前記人物の出現点及び消失点を蓄積し、蓄積した結果をもとに、前記監視カメラの監視エリアに含まれる物体の位置を学習する工程と、前記人物の行動エリアを判別し、前記人物に関して危険行動を判断するための危険行動検知エリアを設定する工程と、前記プラットホームに入線した前記車両の特徴を画像処理により検出し、検出した特徴を時刻情報と関連付けて蓄積するとともに、前記車両の運行情報と照合し前記車両の特徴の検出結果に反映させる工程と、前記危険行動が記録された映像を、前記危険行動の発生位置、発生時刻及び警告レベル情報を関連づけて記録する工程と、所定時間帯において前記危険行動の出現頻度が所定以上の場合に、前記所定時間帯において、注意を促す表示出力を行う工程と、を備える。
The present invention is a monitoring system including a monitoring camera that captures a platform on which a vehicle enters as a monitoring area, and a data processing device that performs image processing on a video captured by the monitoring camera and determines a warning level. The data processing device identifies a person included in the video of the monitoring area, accumulates the appearance points and vanishing points of the person, and includes the person in the monitoring area of the monitoring camera based on the accumulated result. While learning the position of the object, the action area of the person is determined, and a dangerous action detection area for determining a dangerous action with respect to the person is set.
Further, the data processing device detects the characteristics of the vehicle entering the platform by image processing, accumulates the detected characteristics in association with time information, and collates with the operation information of the vehicle to check the characteristics of the vehicle. It may be reflected in the detection result.
In addition, the data processing device has a function of acquiring audio data output to the platform, and the movement amount of the person between image frames in the dangerous behavior detection area on the platform If it is determined that the action is a dangerous action and the acquired voice data matches predetermined reference data, the warning level may be increased for a person recognized as a dangerous action after the voice data.
Further, the data processing device records the video in which the dangerous behavior is recorded in association with the occurrence position, the occurrence time, and the warning level information of the dangerous behavior, and the frequency of appearance of the dangerous behavior in a predetermined time zone is greater than or equal to a predetermined value. In this case, display output for calling attention may be performed in the predetermined time period.
The present invention relates to a monitoring method for performing data processing for performing image processing on a video captured by a monitoring camera that captures a platform on which a vehicle enters as a monitoring area and determining a warning level, and the video of the monitoring area Identifying the person included in the image, accumulating the appearance points and vanishing points of the person, learning the position of the object included in the surveillance area of the surveillance camera based on the accumulated results, and the behavior of the person Determining the area, setting a dangerous behavior detection area for judging dangerous behavior with respect to the person, detecting the characteristics of the vehicle entering the platform by image processing, and associating the detected characteristics with time information A step of accumulating and reflecting the operation information of the vehicle and reflecting the result of detection of the characteristics of the vehicle, and an image in which the dangerous behavior is recorded, A process for recording the dangerous behavior occurrence position, occurrence time, and warning level information in association with each other, and a display output that calls attention in the predetermined time zone when the appearance frequency of the dangerous behavior is greater than or equal to the predetermined time zone. And a step of performing.
本発明によると、車両が入線するプラットホームを監視エリアとして画像処理にて監視する場合に、良好な検知精度を実現するとともに、メンテナンス性を改善した技術を実現できる。 According to the present invention, it is possible to realize a technique that realizes good detection accuracy and improved maintainability when monitoring by image processing using a platform on which a vehicle enters as a monitoring area.
次に、本発明を実施するための形態(以下、単に「実施形態」という)を、図面を参照して具体的に説明する。本実施形態の概要は次の通りである。すなわち、画像処理で検知された駅ホームや車両等の鉄道向け監視システム特有の物体形状・物***置と乗降客の行動(出現点・消失点や危険行動)について、両者を関連付けて学習させる。これによって、危険行動検知エリアを自動的に設定すると共に検知精度の向上を図る。以下、具体的に説明する。 Next, modes for carrying out the present invention (hereinafter, simply referred to as “embodiments”) will be specifically described with reference to the drawings. The outline of the present embodiment is as follows. That is, an object shape / object position specific to a railway monitoring system such as a station platform or a vehicle detected by image processing and passenger behavior (appearance point / vanishing point or dangerous behavior) are learned in association with each other. Thus, the dangerous behavior detection area is automatically set and the detection accuracy is improved. This will be specifically described below.
図1は、本実施形態の監視システム101の構成図である。監視システム101は、ホーム監視装置20と、データ処理装置30と、端末装置40と、監視PC(サービス会社)16とを備え、それらがLAN6や公衆回線15等のネットワーク回線で接続され、鉄道ホームの監視を行う。また、監視システム101は、NTPサーバ12や列車運行を管理する運行管理サーバ17(運行管理システム)とネットワーク接続されており、それらサーバから所望の情報を適宜取得して利用する。
FIG. 1 is a configuration diagram of a
ホーム監視装置20は、主に鉄道のホームに設置される装置であって、複数の監視カメラ1と複数の車掌用ホームモニタ2と、集音装置3と、画像エンコーダー4と、ネットワークスイッチ5とを備える。監視カメラ1や車掌用ホームモニタ2、集音装置3の数は、特に限定せず、設置されるホームの大きさ等に応じて適宜設定される。
The
ホームに設置される監視カメラ1の映像は、車掌用ホームモニタ2を介して画像エンコーダー4で集約される。同様に、集音装置3で取得した音声データも画像エンコーダー4に集約される。画像エンコーダー4は、集約した映像及び音声データを、エンコードした上で、ネットワークスイッチ5からLAN6を介して、データ処理装置30(画像処理装置8)に対して配信する。
The images of the
データ処理装置30は、画像生成装置7と、画像処理装置8と、音声処理装置9と、システム管理サーバ10と、映像記録装置11と、を備える。なお、ここでは、異なる装置構成として示しているが、それら全て又は一部が一体に構成されてもよい。例えば、画像生成装置7と画像処理装置8は、画像処理機能として類似の処理を行うため、一体として設けられてもよい。
The
画像処理装置8は、ホーム監視装置20から取得したデータを蓄積し、各種の処理を行う。そのような処理の一つとして、画像処理装置8は、蓄積された乗降客の行動から危険行動検知エリアを自動的に学習して登録する。
The image processing device 8 accumulates data acquired from the
また、画像処理装置8は、重点検知エリアを画像から切り出して画像生成装置7に送る。さらに、画像処理装置8は、監視カメラ1を制御する機能を有しており、映像レベル、ガンマ特性等の各種カメラパラメータを自動的にまたはユーザー操作で設定制御する。
Further, the image processing device 8 cuts out the priority detection area from the image and sends it to the
画像生成装置7は、これらの画像に対して最適化処理を施して、画像処理装置8へフィードバックする。
The
画像処理装置8は、画像生成装置7からのフィードバックをもとに、乗降客の危険行動を検知し、当該情報をシステム管理サーバ10へ送る。
The image processing device 8 detects the dangerous behavior of passengers based on the feedback from the
画像処理装置8は、検知対象物や危険行動検知エリア、重点検知エリアの情報を映像上にマーキングを施し、当該映像を映像記録装置11へ配信する。映像記録装置11は、配信されてきた映像を録画し保持する。 The image processing device 8 marks information on the detection target, the dangerous behavior detection area, and the priority detection area on the video, and distributes the video to the video recording device 11. The video recording device 11 records and holds the distributed video.
なお、重点検知エリアは、車両種別で異なることが予想される。そこで、画像処理装置8は、運行管理サーバ17から取得したダイヤ情報やNTPサーバ12から取得した時刻情報を利用することで、重点検知エリア(画像の切り出し位置)の精度を向上させることが可能となる。
Note that the priority detection area is expected to differ depending on the vehicle type. Therefore, the image processing apparatus 8 can improve the accuracy of the priority detection area (the cutout position of the image) by using the diamond information acquired from the
音声処理装置9は、集音装置3が取得したホームアナウンスや警笛等の音を基に音声認識を行い、その認識結果の情報を画像処理装置8へ送る。画像処理装置8は、上述の乗降客の危険行動の検知において、その認識結果を利用する。
The voice processing device 9 performs voice recognition based on sounds such as home announcements and horns acquired by the
システム管理サーバ10は、端末装置40のクライアントPC13や駅員が携帯するタブレット端末14へ警告情報を配信し、駅員等に対して注意を促す。
The
サービス会社の監視PC16は、映像記録装置11の記録映像を定期的に閲覧することで、画像処理装置8の各種検知精度を確認することが可能である。 The monitoring PC 16 of the service company can check various detection accuracy of the image processing device 8 by periodically browsing the recorded video of the video recording device 11.
図2は、画像処理装置8により検知された乗降客の出現点、消失点を示す図である。出現点を「〇」、消失点を「×」で表記している。図2(a)は、ホーム部A3に、検知した乗客(以下、「検知乗降客」)A2と、ホームに進入した車両A5が含まれた状態のホーム映像A1を示している。ホーム部A3には、黄色線A4が破線で示されている。また、車両A5の正面には車両番号A8が設けられており、側面には車両ドアA6や車側灯A7が設けられているのが示されている。 FIG. 2 is a diagram showing the appearance points and vanishing points of passengers detected by the image processing device 8. The appearance point is indicated by “◯” and the vanishing point is indicated by “×”. FIG. 2A shows the home video A1 in a state where the detected passenger (hereinafter referred to as “detected passenger”) A2 and the vehicle A5 entering the home are included in the home part A3. A yellow line A4 is indicated by a broken line in the home portion A3. Further, the vehicle number A8 is provided on the front surface of the vehicle A5, and the vehicle door A6 and the vehicle side light A7 are provided on the side surface.
図2(b)は乗車時出現点/消失点プロット映像A9を示しており、乗降客が車両A5に乗る場合の出現点A10及び乗り込んで消える消失点A11がプロットされている。図2(c)は降車時出現点/消失点プロット映像A12を示しており、乗降客が車両A5から降りる場合の出現点A13、降りた乗降客が映像から消えた消失点A14がプロットされている。 FIG. 2B shows an appearance point / disappearance point plot image A9 when boarding, where an appearance point A10 when the passenger gets on the vehicle A5 and an disappearance point A11 that disappears after getting on the vehicle are plotted. FIG. 2 (c) shows the appearance point / disappearance point plot image A12 when getting off, where the appearance point A13 when the passenger gets off the vehicle A5 and the vanishing point A14 where the passenger who got off disappeared from the image are plotted. Yes.
画像処理装置8は、監視カメラ1が撮影した映像について、背景差分により動体を検知し、形状・大きさから人物(検知乗降客A2)と判定する。人物を最初に検知したポイントを出現点とし、その後、連続的に同一人物を検知し続けて消失したポイントを消失点として管理する。
The image processing device 8 detects a moving object based on the background difference in the video captured by the
列車に乗る場合は、出現点は階段、エスカレータ、エレベータ近傍等であり、消失点は車両ドアとなる場合が多く、列車から降りる場合は、出現点は車両ドアであり、消失点はエスカレータ、エレベータ近傍等である場合が多い。 When you get on a train, the appearance point is near the stairs, escalator, elevator, etc., and the vanishing point is often a vehicle door. It is often in the vicinity.
図3は、蓄積された乗降客の動線情報と画像処理装置で生成された危険行動検知エリアと重点検知エリアを示す。 FIG. 3 shows accumulated traffic flow information of passengers and dangerous behavior detection areas and priority detection areas generated by the image processing apparatus.
図3(a)は、乗降客の動きを示す動線(軌跡)B2を追加したホーム映像B1である。図3(b)は、画像生成装置7で生成された生成映像B3であり、危険行動検知エリアB4、黄色線B5、車両側危険行動検知エリアB6、車両ドアB7、車側灯B8、車両番号B9が示されている。
FIG. 3A is a home video B1 to which a flow line (trajectory) B2 indicating movement of passengers is added. FIG. 3B is a generated video B3 generated by the
画像処理装置8は、出現点、消失点、乗降客の動線情報を蓄積し、車両ドアから出入りする乗降客がホーム上を移動するエリアに対して危険行動を検知するための危険行動検知エリアB4(すなわち画像処理対象エリア)として登録する。危険行動検知エリアB4以外のエリアは、危険行動検知のための画像処理対象エリアから除外することで、列車や太陽光などといった外乱が画像処理に与える影響(誤検知等)を抑制することが可能となる。 The image processing device 8 accumulates appearance point, vanishing point, and passenger flow information, and a dangerous behavior detection area for detecting dangerous behavior for an area where passengers entering and exiting from the vehicle door move on the platform. It is registered as B4 (that is, image processing target area). By excluding areas other than the dangerous behavior detection area B4 from the image processing target area for dangerous behavior detection, it is possible to suppress the influence (false detection etc.) of disturbances such as trains and sunlight on the image processing. It becomes.
画像処理装置8は、蓄積された車両側の出現点及び消失点から車両ドアB7の位置を登録する。また、画像処理装置8は、車両ドア開閉時の車側灯明滅を検知して車側灯B8の位置を登録する。また、画像処理装置8は、車両先頭の車両番号B9を検知して車両番号B9の位置を登録する。車両種別によるこれらの位置情報の相違について、画像処理装置8は、登録した時刻情報、ダイヤ情報と照合し、車両種別を特定して位置の精度を高めることができる。 The image processing device 8 registers the position of the vehicle door B7 from the accumulated appearance point and vanishing point on the vehicle side. Further, the image processing device 8 detects the blinking of the vehicle side lamp when the vehicle door is opened and closed and registers the position of the vehicle side lamp B8. Further, the image processing device 8 detects the vehicle number B9 at the head of the vehicle and registers the position of the vehicle number B9. About the difference of these positional information by vehicle type, the image processing apparatus 8 can collate with the registered time information and diamond information, can specify a vehicle type, and can improve the precision of a position.
図4は、乗降客の移動ベクトルを示した図である。ホーム映像C1には、乗降客の移動ベクトルとして、歩行している乗降客の移動ベクトル(歩行乗降客移動ベクトルC2)、黄色線C5の外で走っている乗降客の移動ベクトル(線外走行者移動ベクトルC3)、黄色線C5の内で走っている乗降客の移動ベクトル(線内走行者移動ベクトルC4)が示されている。 FIG. 4 is a diagram showing movement vectors of passengers. In the home video C1, as the movement vector of passengers, the movement vector of walking passengers (walking passenger movement vector C2), the movement vector of passengers running outside the yellow line C5 (off-line runner) The movement vector C3) and the movement vector of passengers running in the yellow line C5 (in-line runner movement vector C4) are shown.
画像処理装置8は、車両ドアC6に向かう乗降客について、上述の移動ベクトルから、フレーム間の人物の移動距離から速度を計算し、一定速度以上の乗降客を危険行動(駆け込み乗車)と判定する。 The image processing device 8 calculates the speed of the passengers heading for the vehicle door C6 from the above-described movement vector based on the movement distance of the person between frames, and determines that passengers at or above a certain speed are dangerous behaviors (running boarding). .
更に、音声処理装置9から「まもなくドアが閉まります」や「出発メロディ」等の音声情報が通知された際には、ドアの挟み込みが懸念されるため、画像処理装置8は、警告レベルを上げる処理を行う。 Further, when voice information such as “the door will be closed soon” or “departure melody” is notified from the voice processing device 9, the image processing device 8 raises the warning level because there is a concern that the door may be caught. Process.
なお、音声処理装置9は、警告レベルの調整に用いる音声情報の参照用データを有しており、その参照用データと取得した音声情報とを比較し、同じと判断できる場合に、警告レベルを調整する。 The voice processing device 9 has voice data reference data used for adjusting the warning level. When the voice data is compared with the acquired voice information, the warning level is set. adjust.
警告レベルとして、例えば、通常時の歩行者を「低レベル」、通常時の走行者を「中レベル」、閉扉直前の歩行者を「中レベル」、閉扉直前の走行者を「高レベル」、閉扉直前の走行者で黄色線C5の内側もしくは線近傍の走行者を「最高レベル」とする。これらの警告レベル情報を駅員に通知することで、危険度合を知らせることができ、事故の未然防止を図る。なお、クライアントPC13やタブレット端末14等で通知を表示する場合には、警告レベルに応じて対象の色や、対象を囲む枠等を異なるものとし、警告レベルを容易に判断可能にすることが望ましい。
As warning levels, for example, pedestrians at normal times are `` low level '', pedestrians at normal time are `` medium level '', pedestrians just before closing are `` medium level '', pedestrians just before closing are `` high level '', A runner immediately before closing the door and inside the yellow line C5 or in the vicinity of the line is defined as the “highest level”. By notifying station staff of these warning level information, the degree of danger can be informed and accidents can be prevented. When displaying a notification on the
逆に「まもなく列車が参ります」や「入線メロディ」等の列車入線直前の音声情報が通知された際には、画像処理装置8は、黄色線C5からのはみ出し、ホーム転落者については警告レベルが「高レベル」と判定し駅員(より具体的には、クライアントPC13やタブレット端末14等)に通知する。なお、列車の出線情報や入線情報は、上述の音声情報以外に運行管理サーバ17からの物理的な条件信号を本監視システム101に入力することで行うこともできる。
On the contrary, when the voice information immediately before entering the train such as “Train is coming soon” or “Entry melody” is notified, the image processing device 8 protrudes from the yellow line C5, and the warning level is given to those who fall home. Is determined to be “high level” and notified to the station staff (more specifically, the
図5は、重点検知エリアの画面合成イメージを示す図である。合成前ホーム映像D1から、重点検知エリア除外背景画像D5及び抽出重点検知エリア画像D6が生成される。さらに、重点検知エリア除外背景画像D5及び抽出重点検知エリア画像D6を合成することで合成画像D7が生成される。 FIG. 5 is a diagram showing a screen composition image of the priority detection area. An important point detection area excluded background image D5 and an extracted important point detection area image D6 are generated from the pre-combination home video D1. Furthermore, the synthesized image D7 is generated by synthesizing the priority detection area excluded background image D5 and the extracted priority detection area image D6.
図示のように、合成前ホーム映像D1には、ホーム部D2、車側灯D3、車両番号D4が含まれ、重点検知エリアとして認識される。 As shown in the figure, the pre-combination home video D1 includes a home part D2, a vehicle side light D3, and a vehicle number D4, and is recognized as a priority detection area.
画像処理装置8は、重点検知エリアであるホーム部D2、車側灯D3、車両番号D4を抽出して画像生成装置7へ送信する。画像処理装置8は、送信の際に、重点検知エリア(ここでは、ホーム部D2、車側灯D3、車両番号D4)を除いた背景画像も合わせて画像生成装置7へ送信する。
The image processing device 8 extracts the home portion D2, the vehicle side light D3, and the vehicle number D4, which are the priority detection areas, and transmits them to the
画像生成装置7は、重点検知エリアの各々(ここでは、ホーム部D2、車側灯D3、車両番号D4)に対して、白とびや黒つぶれがない最適な映像となるように個別にコントラスト補正、映像レベル補正等の画像補正処理を行う。
The
画像生成装置8は、補正後の重点検知エリアの映像と背景映像を合成して一枚の映像(すなわち、合成画像D7)を生成して画像処理装置8へフィードバックする。画像処理装置8は画像生成装置7からの合成画像D7を基に再び画像処理することで、画像処理の検知精度を向上させることが可能となる。すなわち、重点検知エリアについては、画像認識が容易になるような画像処理が施されている。
The image generation device 8 combines the corrected image of the priority detection area and the background image to generate a single image (that is, the combined image D7) and feeds it back to the image processing device 8. The image processing device 8 can perform image processing again based on the composite image D7 from the
図6は、検知した危険行動の内、警告レベルの高いものをプロットした図である。図6(a)のホーム映像E1には、警告レベルの高い検知点(高警告レベル検知点E2)が示されている。図6(b)は、ホーム映像を平面座標に変換した座標変換ホーム映像E3に、警告レベルの高い検知点を蓄積したグラフ(高警告レベル検知点蓄積グラフE4)が示されている。 FIG. 6 is a diagram in which the detected dangerous behavior is plotted with a high warning level. In the home video E1 in FIG. 6A, a detection point with a high warning level (high warning level detection point E2) is shown. FIG. 6B shows a graph (high warning level detection point accumulation graph E4) in which detection points having a high warning level are accumulated in the coordinate-converted home video E3 obtained by converting the home video into plane coordinates.
画像処理装置8は、図6(a)に示すような映像範囲を二次元座標に変換し図6(b)の座標変換ホーム映像E3を得て、さらに、警告レベルの高い検知点の位置情報(二次元座標情報と時刻情報)を時間経過と共に蓄積し高警告レベル検知点蓄積グラフE4を得る。これにより、警告レベルの高い危険行動の場所と時間の傾向分析が可能となり、将来危険行動が発生すると予測される場所と時間を監視システム101のユーザーに通知することが可能となる。
The image processing apparatus 8 converts the video range as shown in FIG. 6A to two-dimensional coordinates to obtain the coordinate conversion home video E3 of FIG. 6B, and further, the position information of the detection point with a high warning level. (Two-dimensional coordinate information and time information) are accumulated over time to obtain a high warning level detection point accumulation graph E4. Thereby, it is possible to analyze the trend of the location and time of the dangerous behavior with a high warning level, and to notify the user of the
具体的には、画像処理装置8は、所定時間や曜日ごとに所定の場所における過去の危険行動の情報を蓄積し、それが所定頻度以上になると、その時間帯のそのエリアで危険行動が発生すると予測し、監視者に注意喚起する。注意喚起の方法は、どのようなものでもよいが、例えば監視モニタ(車掌用ホームモニタ2、タブレット端末14、クライアントPC13等)において、危険行動が予測される場所に所定のマークや枠などを表示する。
Specifically, the image processing apparatus 8 accumulates past dangerous behavior information at a predetermined location for each predetermined time or day of the week, and when that frequency exceeds a predetermined frequency, the dangerous behavior occurs in that area in that time zone. Then predict and alert the observer. Any method of alerting may be used. For example, a predetermined mark or a frame is displayed at a place where dangerous behavior is predicted on a monitoring monitor (such as a conductor's
図7は検知枠付きの記録映像を示している。ホーム映像F1に黄色線F8外の危険行動検知エリアを示す線外危険行動検知エリア枠F2(例えば緑枠で表示する)、黄色線F8内の危険行動検知エリア枠を示す線内危険行動検知エリア枠F3(例えば赤枠で表示する)、車側灯枠F4(例えば黄枠で表示する)、車両番号枠F5(例えば黒枠で表示する)、通常の乗降客F6(例えば黒枠で表示する)、危険行動として検知された乗降客F7(例えば赤枠で表示する)が示されている。枠の種類や警告レベルに応じて色分けして表示されている。 FIG. 7 shows a recorded video with a detection frame. In-line dangerous behavior detection area frame F2 indicating a dangerous behavior detection area outside yellow line F8 in home video F1 (for example, displayed in a green frame), in-line dangerous behavior detection area indicating a dangerous behavior detection area frame in yellow line F8 Frame F3 (for example, displayed with a red frame), vehicle side light frame F4 (for example, displayed with a yellow frame), vehicle number frame F5 (for example, displayed with a black frame), normal passenger F6 (for example, displayed with a black frame), A passenger F7 detected as a dangerous behavior (for example, displayed in a red frame) is shown. They are displayed in different colors according to the frame type and warning level.
画像処理装置8は、このように色分けして枠表示した映像を生成し、当該映像を映像記録装置11に配信する。映像記録装置11は時刻情報と共に当該映像を記録する。また、映像記録装置11は、警告レベル情報を記録映像データのヘッダ部に付与する。これによって、危険行動が記録された映像をレベルに応じて事後検索することが効率的になる。 The image processing device 8 generates a video image that is color-coded and displayed in a frame as described above, and distributes the video image to the video recording device 11. The video recording device 11 records the video together with time information. Further, the video recording device 11 gives warning level information to the header portion of the recorded video data. As a result, it is efficient to perform a post search according to the level of the video in which the dangerous behavior is recorded.
監視システム101のサービス会社の監視PC16から定期的に上述の枠付きの記録映像を閲覧することで、画像処理装置8で検知された対象物の正常性を確認することができ、検知精度を計測することができる。誤検知等で画像処理装置8による検知結果が正しくないと判断した場合、画像処理装置8に対して正しい情報を入力することで学習プロセスを補正する。
The normality of the object detected by the image processing apparatus 8 can be confirmed by periodically browsing the recorded video with the frame from the
また、サービス会社は、監視PC16等の操作によって検知精度に一定の閾値を設けて、閾値以上となったことが確認された時点で運用開始を監視システム101のユーザーに通知する。例えば、転落者検知のような重要な警報については検知精度の閾値を上げることで、検知対象に応じた閾値設定も可能とする。
In addition, the service company sets a certain threshold for detection accuracy by operating the
以上、本実施形態の監視システム101によると、画像処理で検知された駅ホームや車両等の鉄道向け監視システム特有の物体形状・物***置と乗降客の行動(出現点・消失点や危険行動)について、両者を関連付けて学習させることで、危険行動検知エリアを自動的に設定し、検知精度の向上を図ることができる。さらに、それとともに、映像上の重点検知エリア(ホーム部、車両ドア、車側灯、車両番号等)を特定して各々独立して画像処理することで視認性向上を図ることができる。また、監視PC16のサービス会社が、画像処理装置8の学習効果を遠隔監視することで、運用開始可能か否か判定することを可能とする。
As described above, according to the
監視システム101の特徴を纏めると次の通りである。
監視システム101は、画像処理で検知された乗降客の動線から出現点及び消失点の情報を蓄積、学習することで、映像中の車両ドア、階段、エスカレータ等の位置を精度よく特定する。
The characteristics of the
The
また、監視システム101は、乗降客の動線から乗降客の行動エリアを自動的に判別し、乗降客の危険行動を画像処理するための危険行動検知エリアを自動設定する。映像の中で検知エリアを限定し、列車等で映像上変化する部分を除去することで誤報の低減を図ることも可能となる。
In addition, the
また、監視システム101は、時間と共に変化する乗降客や列車等の動体を抽出してこれらを排除することで背景映像を生成する。背景映像の中からホームの特徴(黄色線、ホーム境界)を画像処理で判別する。
In addition, the
また、監視システム101は、ホームに入線した車両の特徴(形状、色、ドア位置、ドア数、車側灯位置、車両前面の車両番号)を画像処理で検知する。ドア位置については、乗降客の車両側の消失点の蓄積情報から判定する。車両番号については、車両前方を撮像したカメラ映像から輝度の高い文字情報を抽出して判定する。蓄積されたこれらの情報と時刻情報及びダイヤ情報を照合することで、検知精度を時間と共に上げていく。
Moreover, the
また、監視システム101は、画像フレーム間の乗降客の移動量から速度を計測して一定速度以上の人物を駆け込み乗車(危険行動)と判定する。例えば、「まもなくドアが閉まります」や「出発メロディ」等の閉扉直前の音を音声処理装置9にて音声認識された情報をシステムに取り込むことで、これ以降に検知された駆け込み乗車は警告レベルが高いものと判定して駅員に通知する。なお、閉扉直前であることを知らせる情報としては、上述の音声情報以外に、運行システム側からの出発条件信号を本システムに取り込んでもよい。
In addition, the
また、監視システム101は、画像処理により検知された乗降客の黄色線はみ出しと音声処理により検知された警笛鳴動が同時に検知された場合に危険行動(黄色線はみ出し)の警告レベルが高いものと判定する。
In addition, the
また、監視システム101は、例えば、「まもなく列車が参ります」や「入線メロディ」等の列車入線直前の音を音声処理装置9で検知された場合に、これ以降に検知された危険行動(黄色線はみ出し、ホーム転落者)は警告レベルが高いものと判定して駅員に通知する。列車入線であることを知らせる情報としては、上述の音声情報以外に、運行システム側からの入線条件信号を本システムに取り込んでもよい。
In addition, the
また、監視システム101は、警告レベル情報を記録映像データのヘッダ部に付与することで、危険行動が記録された映像をレベルに応じて事後検索する。
In addition, the
また、監視システム101は、危険行動情報(駆け込み、黄色線はみ出し、ホーム転落)と検知時刻情報(月日時分秒)を蓄積し、時間や場所の傾向分析を行うことで将来の危険発生時刻、発生場所を予測する。予測は、過去の危険行動が所定頻度を超えたか否かで行うことができる。
In addition, the
また、監視システム101は、映像上の重点検知エリア(ホーム部、車両ドア、車側灯、車両番号)の映像を部分的に切り出して、各々が白とびや黒つぶれがない最適な映像に変換した上でこれらを背景映像と合成して一つの映像を生成することで、視認性向上と検知精度向上を図ることができる。
In addition, the
また、監視システム101は、部分的に切り出された重点検知エリア(ホーム部、車両ドア、車側灯、車両番号)の映像レベルを計測し、白とびや黒つぶれがない最適な映像になるように監視カメラ1に対して映像レベル、ガンマ特性等の各種カメラパラメータを自動的に設定制御する。
In addition, the
また、監視システム101は、危険行動検知エリア(ホーム部、線路部)、重点検知エリア(ホーム部、車両ドア、車側灯、車両番号)の検知結果情報と危険行動検知結果情報を公衆回線15経由で本システムのサービス会社(より具体的にはその監視PC16)に定期的に送信することで、画像処理による学習効果を定期的に計測すると共に、サービス会社は検知結果の良否を判定して本システムにフィードバックすることで学習効果を更に上げることを可能とする。検知精度が一定の閾値以上になった場合にシステム運用開始を判断する。なお、検知精度(すなわちその閾値)を高くすると、システム構成やアプリケーションが高度になり導入が難しくなる場合もあるが、検知精度を安全サイドに広くとるように閾値設定を緩くすることで、監視システム101の導入促進に繋がる。
Moreover, the
以上、本発明を実施形態をもとに説明した。この実施形態は例示であり、それらの各構成要素の組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。例えば、本実施形態では、鉄道の監視システムを想定したが、これに限る趣旨では無く、例えば、バス・ラピッド・トランジット(BRT)のプラットホーム監視にも適用することができる。 The present invention has been described based on the embodiments. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to combinations of these components, and such modifications are also within the scope of the present invention. For example, in the present embodiment, a railway monitoring system is assumed. However, the present invention is not limited to this. For example, the present invention can be applied to platform monitoring of a bus rapid transit (BRT).
1 監視カメラ
2 車掌用ホームモニタ
3 集音装置
4 画像エンコーダー
5 ネットワークスイッチ
6 LAN
7 画像生成装置
8 画像処理装置
9 音声処理装置
10 システム管理サーバ
11 映像記録装置
12 NTPサーバ
13 クライアントPC
14 タブレット端末
15 公衆回線
16 監視PC
17 運行管理サーバ
20 ホーム監視装置
30 データ処理装置
40 端末装置
101 監視システム
DESCRIPTION OF
7 Image generation device 8 Image processing device 9
14
17
Claims (5)
前記データ処理装置は、
前記監視エリアの映像に含まれる人物を特定し、前記人物の出現点及び消失点を蓄積し、蓄積した結果をもとに、前記監視カメラの監視エリアに含まれる物体の位置を学習するとともに、前記人物の行動エリアを判別し、前記人物に関して危険行動を判断するための危険行動検知エリアを設定することを特徴とする監視システム。 A monitoring system comprising: a monitoring camera that captures a platform on which a vehicle enters as a monitoring area; and a data processing device that performs image processing on a video captured by the monitoring camera and determines a warning level.
The data processing device includes:
Identify the person included in the video of the monitoring area, accumulate the appearance point and vanishing point of the person, learn the position of the object included in the monitoring area of the monitoring camera based on the accumulated results, A monitoring system characterized by determining an action area of the person and setting a dangerous action detection area for determining a dangerous action with respect to the person.
前記プラットホームに出力される音声データを取得する機能を有し、
前記プラットホーム上の前記危険行動検知エリアにおける画像フレーム間の前記人物の移動量から一定速度以上の人物の動作を危険行動であると判断し、前記取得した音声データが所定の参照データと一致する場合、前記音声データより後に危険行動と認識された人物について、警告レベルを高くする
ことを特徴とする請求項1または2に記載の監視システム。 The data processing device includes:
Having a function of acquiring audio data output to the platform;
When the movement of the person between image frames in the dangerous action detection area on the platform is determined to be a dangerous action when the person moves at a certain speed or more, and the acquired audio data matches predetermined reference data The monitoring system according to claim 1, wherein a warning level is increased for a person recognized as dangerous behavior after the voice data.
所定時間帯において前記危険行動の出現頻度が所定以上の場合に、前記所定時間帯において、注意を促す表示出力を行うことを特徴とする請求項1から3までのいずれかに記載の監視システム。 The data processing apparatus records the video in which the dangerous behavior is recorded in association with the occurrence position, occurrence time and warning level information of the dangerous behavior,
The monitoring system according to any one of claims 1 to 3, wherein when the appearance frequency of the dangerous behavior is greater than or equal to a predetermined value during a predetermined time period, display output for calling attention is performed during the predetermined time period.
前記監視エリアの映像に含まれる人物を特定し、前記人物の出現点及び消失点を蓄積し、蓄積した結果をもとに、前記監視カメラの監視エリアに含まれる物体の位置を学習する工程と、
前記人物の行動エリアを判別し、前記人物に関して危険行動を判断するための危険行動検知エリアを設定する工程と、
前記プラットホームに入線した前記車両の特徴を画像処理により検出し、検出した特徴を時刻情報と関連付けて蓄積するとともに、前記車両の運行情報と照合し前記車両の特徴の検出結果に反映させる工程と、
前記危険行動が記録された映像を、前記危険行動の発生位置、発生時刻及び警告レベル情報を関連づけて記録する工程と、
所定時間帯において前記危険行動の出現頻度が所定以上の場合に、前記所定時間帯において、注意を促す表示出力を行う工程と、
を備えることを特徴とする監視方法。 A monitoring method for performing data processing for performing image processing on a video captured by a monitoring camera that captures a platform where a vehicle enters as a monitoring area and determining a warning level,
Identifying a person included in the video of the surveillance area, accumulating the appearance points and vanishing points of the person, and learning the position of an object contained in the surveillance area of the surveillance camera based on the accumulated results; ,
Determining a behavior area of the person, and setting a dangerous behavior detection area for judging dangerous behavior with respect to the person;
Detecting the characteristics of the vehicle entering the platform by image processing, storing the detected characteristics in association with time information, collating with the operation information of the vehicle, and reflecting the detection result of the characteristics of the vehicle;
Recording the video in which the dangerous behavior is recorded in association with the occurrence position, occurrence time and warning level information of the dangerous behavior;
A step of performing display output for calling attention in the predetermined time zone when the appearance frequency of the dangerous behavior is greater than or equal to a predetermined time zone;
A monitoring method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017161060A JP6829165B2 (en) | 2017-08-24 | 2017-08-24 | Monitoring system and monitoring method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017161060A JP6829165B2 (en) | 2017-08-24 | 2017-08-24 | Monitoring system and monitoring method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019041207A true JP2019041207A (en) | 2019-03-14 |
JP6829165B2 JP6829165B2 (en) | 2021-02-10 |
Family
ID=65727211
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017161060A Active JP6829165B2 (en) | 2017-08-24 | 2017-08-24 | Monitoring system and monitoring method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6829165B2 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110775110A (en) * | 2019-11-07 | 2020-02-11 | 交控科技股份有限公司 | Train control system based on vehicle-to-vehicle communication |
WO2021156060A1 (en) * | 2020-02-04 | 2021-08-12 | Siemens Mobility GmbH | Method and system for monitoring the surroundings of a means of transportation |
JP7023429B1 (en) * | 2020-12-22 | 2022-02-21 | 楽天グループ株式会社 | Surveillance system and unmanned vehicle |
WO2022138479A1 (en) * | 2020-12-22 | 2022-06-30 | 株式会社日立国際電気 | Monitoring system and monitoring method |
JP2022099338A (en) * | 2020-12-22 | 2022-07-04 | 楽天グループ株式会社 | Monitor system and unmanned travel body |
WO2023286152A1 (en) * | 2021-07-13 | 2023-01-19 | 日本電気株式会社 | Detection device, detection method, and non-transitory computer-readable medium |
JP2023119723A (en) * | 2022-02-17 | 2023-08-29 | 東芝エレベータ株式会社 | Passenger conveyor control device and passenger conveyor control method |
US11787335B2 (en) | 2019-07-26 | 2023-10-17 | Aisin Corporation | Periphery monitoring device |
JP7518208B2 (en) | 2020-12-22 | 2024-07-17 | 株式会社日立国際電気 | Monitoring system and monitoring method |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08244612A (en) * | 1995-03-10 | 1996-09-24 | Hitachi Ltd | Dash-on-car-passenger monitor |
JP2003224844A (en) * | 2002-01-31 | 2003-08-08 | Mitsubishi Heavy Ind Ltd | Home supervisory system |
JP2004058737A (en) * | 2002-07-25 | 2004-02-26 | National Institute Of Advanced Industrial & Technology | Safety monitoring device in station platform |
JP2006074513A (en) * | 2004-09-02 | 2006-03-16 | Oki Electric Ind Co Ltd | Monitoring system and monitoring device |
JP2014086789A (en) * | 2012-10-22 | 2014-05-12 | Saxa Inc | Imaging apparatus and vehicle door monitoring system |
JP2015039125A (en) * | 2013-08-19 | 2015-02-26 | キヤノン株式会社 | Monitoring device |
JP2016162408A (en) * | 2015-03-05 | 2016-09-05 | サクサ株式会社 | Image processing device |
-
2017
- 2017-08-24 JP JP2017161060A patent/JP6829165B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08244612A (en) * | 1995-03-10 | 1996-09-24 | Hitachi Ltd | Dash-on-car-passenger monitor |
JP2003224844A (en) * | 2002-01-31 | 2003-08-08 | Mitsubishi Heavy Ind Ltd | Home supervisory system |
JP2004058737A (en) * | 2002-07-25 | 2004-02-26 | National Institute Of Advanced Industrial & Technology | Safety monitoring device in station platform |
JP2006074513A (en) * | 2004-09-02 | 2006-03-16 | Oki Electric Ind Co Ltd | Monitoring system and monitoring device |
JP2014086789A (en) * | 2012-10-22 | 2014-05-12 | Saxa Inc | Imaging apparatus and vehicle door monitoring system |
JP2015039125A (en) * | 2013-08-19 | 2015-02-26 | キヤノン株式会社 | Monitoring device |
JP2016162408A (en) * | 2015-03-05 | 2016-09-05 | サクサ株式会社 | Image processing device |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11787335B2 (en) | 2019-07-26 | 2023-10-17 | Aisin Corporation | Periphery monitoring device |
CN110775110A (en) * | 2019-11-07 | 2020-02-11 | 交控科技股份有限公司 | Train control system based on vehicle-to-vehicle communication |
WO2021156060A1 (en) * | 2020-02-04 | 2021-08-12 | Siemens Mobility GmbH | Method and system for monitoring the surroundings of a means of transportation |
CN114981850A (en) * | 2020-12-22 | 2022-08-30 | 乐天集团股份有限公司 | Monitoring system and unmanned walking body |
WO2022137350A1 (en) * | 2020-12-22 | 2022-06-30 | 楽天グループ株式会社 | Monitoring system and unmanned ground vehicle |
JP2022099338A (en) * | 2020-12-22 | 2022-07-04 | 楽天グループ株式会社 | Monitor system and unmanned travel body |
WO2022138479A1 (en) * | 2020-12-22 | 2022-06-30 | 株式会社日立国際電気 | Monitoring system and monitoring method |
JP7312868B2 (en) | 2020-12-22 | 2023-07-21 | 楽天グループ株式会社 | Surveillance system and unmanned vehicle |
GB2617005A (en) * | 2020-12-22 | 2023-09-27 | Hitachi Int Electric Inc | Monitoring system and monitoring method |
JP7023429B1 (en) * | 2020-12-22 | 2022-02-21 | 楽天グループ株式会社 | Surveillance system and unmanned vehicle |
JP7518208B2 (en) | 2020-12-22 | 2024-07-17 | 株式会社日立国際電気 | Monitoring system and monitoring method |
WO2023286152A1 (en) * | 2021-07-13 | 2023-01-19 | 日本電気株式会社 | Detection device, detection method, and non-transitory computer-readable medium |
JP2023119723A (en) * | 2022-02-17 | 2023-08-29 | 東芝エレベータ株式会社 | Passenger conveyor control device and passenger conveyor control method |
Also Published As
Publication number | Publication date |
---|---|
JP6829165B2 (en) | 2021-02-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6829165B2 (en) | Monitoring system and monitoring method | |
CN101607668B (en) | Embedded computer vision escalator pedestrian flow supervision and alarm device | |
KR101793636B1 (en) | Image processing system | |
WO2018096371A1 (en) | Passenger transport monitoring system | |
KR100956978B1 (en) | The system which integrated manages a traffic accident notice area | |
EP1943612B1 (en) | Video image track supervision system | |
KR101937272B1 (en) | Method and Apparatus for Detecting Event from Multiple Image | |
KR101377029B1 (en) | The apparatus and method of monitoring cctv with control moudule | |
JP2017028364A (en) | Monitoring system and monitoring device | |
KR102131437B1 (en) | Adaptive video surveillance system and method | |
KR20100121020A (en) | Apparatus for detecting a obstacle in a road crossing and controlling method thereof using a moving track of an object | |
KR20090027409A (en) | Monitoring system in railway station | |
CN110759199A (en) | Device and method for detecting electric bicycle trying to enter elevator | |
CN106713492A (en) | Garbage station relay monitoring system and monitoring method based on cloud computing | |
KR101407952B1 (en) | Elevator crime prvent system and method of controlling the same | |
KR101167605B1 (en) | Intelligent controller using camera and method thereof | |
US20230260387A1 (en) | Systems and methods for detecting security events in an environment | |
KR100444929B1 (en) | Image processing alarm system and method for automatically sensing unexpected accident at train platform | |
JP5520675B2 (en) | Reporting device | |
US20240203221A1 (en) | Monitoring device and monitoring system | |
WO2023209782A1 (en) | Monitoring apparatus, monitoring method, and recording medium | |
KR101936004B1 (en) | Intelligent pedestrian detecting method | |
KR100497311B1 (en) | Method for automatically detecting and alarming unexpected accident while boarding or alighting from subway and train at platform | |
JP7517422B2 (en) | Conversation monitoring device, control method, and program | |
US20240054815A1 (en) | Information processing apparatus, information processing method, computer-readable medium, and information processing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200319 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210121 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6829165 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |