JP7302088B1 - システムおよびプログラム - Google Patents

システムおよびプログラム Download PDF

Info

Publication number
JP7302088B1
JP7302088B1 JP2022211834A JP2022211834A JP7302088B1 JP 7302088 B1 JP7302088 B1 JP 7302088B1 JP 2022211834 A JP2022211834 A JP 2022211834A JP 2022211834 A JP2022211834 A JP 2022211834A JP 7302088 B1 JP7302088 B1 JP 7302088B1
Authority
JP
Japan
Prior art keywords
target
threshold
moving speed
residence time
measuring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022211834A
Other languages
English (en)
Other versions
JP2024094914A (ja
Inventor
勇輝 木村
貴博 橋本
Original Assignee
セーフィー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by セーフィー株式会社 filed Critical セーフィー株式会社
Priority to JP2022211834A priority Critical patent/JP7302088B1/ja
Application granted granted Critical
Publication of JP7302088B1 publication Critical patent/JP7302088B1/ja
Publication of JP2024094914A publication Critical patent/JP2024094914A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】カメラにより撮影された映像から人の滞留を検出する精度を向上させる。【解決手段】本開示の一例としてのシステムは、カメラにより撮影された映像を解析するシステムであって、映像において対象を検知し、対象の滞留時間を計測し、対象の移動速度を計測し、対象の滞留時間が第1閾値以上であり、かつ対象の移動速度が第2閾値以上である場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行う。【選択図】図2

Description

本開示は、システムおよびプログラムに関する。
従来、カメラにより撮影した映像を解析し、当該映像内の人を検知する技術が知られている。このような技術では、たとえば、所定エリア内に人が所定時間以上継続して滞留した場合に、その旨を通知するアラームが出力される。
特開2021-72475号公報
しかしながら、所定エリア内に滞留した時間のみを根拠として人の滞留の検出を行うと、たとえば夜間などのような、人の滞留が検出しにくい場合において、検出の精度が低下しやすい。
そこで、本開示が解決しようとする課題の一つは、カメラにより撮影された映像から人の滞留を検出する精度を向上させることが可能なシステムおよびプログラムを提供することである。
本開示の一例としてのシステムは、カメラにより撮影された映像を解析するシステムであって、映像において対象を検知し、対象の滞留時間を計測し、対象の移動速度を計測し、対象の滞留時間が第1閾値以上であり、かつ対象の移動速度が第2閾値以上である場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行う。
また、本開示の他の一例としてのシステムは、カメラにより撮影された映像を解析するシステムであって、映像において対象を検知し、対象の滞留時間を計測し、対象の移動速度を計測し、対象の移動速度が閾値以上となった場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行い、閾値は、対象の滞留時間が大きいほど小さくなるように変化する。
また、本開示のさらに他の一例としてのシステムは、カメラにより撮影された映像を解析するシステムであって、映像において対象を検知し、対象の滞留時間を計測し、対象の移動速度を計測し、対象の滞留時間が閾値以上となった場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行い、閾値は、対象の移動速度が大きいほど小さくなるように変化する。
また、本開示のさらに他の一例としての方法は、カメラにより撮影された映像を解析するシステムで実行される方法であって、映像において対象を検知することと、対象の滞留時間を計測することと、対象の移動速度を計測することと、対象の滞留時間が第1閾値以上であり、かつ対象の移動速度が第2閾値以上である場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行うことと、を含む。
また、本開示のさらに他の一例としての方法は、カメラにより撮影された映像を解析するシステムで実行される方法であって、映像において対象を検知することと、対象の滞留時間を計測することと、対象の移動速度を計測することと、対象の移動速度が閾値以上となった場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行うことと、を含み、閾値は、対象の滞留時間が大きいほど小さくなるように変化する。
また、本開示のさらに他の一例としての方法は、カメラにより撮影された映像を解析するシステムで実行される方法であって、映像において対象を検知することと、対象の滞留時間を計測することと、対象の移動速度を計測することと、対象の滞留時間が閾値以上となった場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行うことと、を含み、閾値は、対象の移動速度が大きいほど小さくなるように変化する。
また、本開示のさらに他の一例としてのプログラムは、カメラにより撮影された映像を解析するシステムを構成するコンピュータに、映像において対象を検知することと、対象の滞留時間を計測することと、対象の移動速度を計測することと、対象の滞留時間が第1閾値以上であり、かつ対象の移動速度が第2閾値以上である場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行うことと、を実行させるための、プログラムである。
また、本開示のさらに他の一例としてのプログラムは、カメラにより撮影された映像を解析するシステムを構成するコンピュータに、映像において対象を検知することと、対象の滞留時間を計測することと、対象の移動速度を計測することと、対象の移動速度が閾値以上となった場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行うことと、を実行させるためのプログラムであって、閾値は、対象の滞留時間が大きいほど小さくなるように変化する。
また、本開示のさらに他の一例としてのプログラムは、カメラにより撮影された映像を解析するシステムを構成するコンピュータに、映像において対象を検知することと、対象の滞留時間を計測することと、対象の移動速度を計測することと、対象の滞留時間が閾値以上となった場合に、対象が滞留していることを検出し、対象の滞留を示す出力を行うことと、を実行させるためのプログラムであって、閾値は、対象の移動速度が大きいほど小さくなるように変化する。
図1は、実施形態にかかるシステムの機能的構成を示した例示的かつ模式的なブロック図である。 図2は、実施形態にかかるシステムにおいて実行される処理の流れを示した例示的かつ模式的なシーケンス図である。 図3は、実施形態にかかる条件の設定の一例としての感度の設定を説明するための例示的かつ模式的な図である。 図4は、実施形態にかかる条件の設定の一例としてのエリアの設定を説明するための例示的かつ模式的な図である。 図5は、実施形態にかかる条件の設定の一例としての通知の設定を説明するための例示的かつ模式的な図である。 図6Aは、実施形態にかかる検知処理で使用されるロジックの一例を説明するための例示的かつ模式的な図である。 図6Bは、実施形態にかかる検知処理で使用されるロジックの一例を説明するための例示的かつ模式的な図である。 図7は、実施形態にかかる検知処理で使用されるロジックの他の一例を説明するための例示的かつ模式的な図である。 図8は、実施形態にかかるタイムラインの表示態様の他の一例を示した例示的かつ模式的な図である。 図9は、実施形態にかかる電子メールを用いた通知の態様の一例を示した例示的かつ模式的な図である。 図10は、実施形態にかかるカメラ、クラウドプラットフォーム、およびユーザ端末に含まれる情報処理装置のハードウェア構成を示した例示的かつ模式的なブロック図である。
以下、本開示の実施形態および変形例を図面に基づいて説明する。以下に記載する実施形態および変形例の構成、ならびに当該構成によってもたらされる作用および効果は、あくまで一例であって、以下の記載内容に制限されるものではない。
図1は、実施形態にかかるシステム100の機能的構成を示した例示的かつ模式的なブロック図である。
図1に示されるように、実施形態にかかるシステム100は、カメラ110と、クラウドプラットフォーム120と、ユーザ端末130と、を含む。
カメラ110は、機能モジュールとして、撮影部111と、検知部112と、通信部113と、を含む。また、クラウドプラットフォーム120は、機能モジュールとして、通信部121と、記録部122と、画像情報生成部123と、を含む。また、ユーザ端末130は、機能モジュールとして、入力受付部131と、通信部132と、表示再生部133と、を含む。
カメラ110は、たとえば店舗などに設置され、ネットワーク経由でクラウドプラットフォーム120と通信可能に接続される。また、クラウドプラットフォーム120は、ネットワーク経由でユーザ端末130と通信可能に接続される。これにより、カメラ110により撮影された映像(および当該映像に基づいて検出される情報)は、クラウドプラットフォーム120を介してユーザ端末130に提供されうる。
ここで、カメラ110により撮影された映像を解析すれば、当該映像内に写っている人を検知することが可能である。このような技術として、従来、映像の所定エリア内に人が所定時間以上継続して滞留した場合に、その旨を通知するアラームを出力する技術が知られている。
しかしながら、所定エリア内に滞在した時間のみを根拠として人の滞留の検出を行うと、たとえば夜間などのような、人の滞留が検出しにくい場合において、検出の精度が低下しやすい。
そこで、実施形態では、以下に説明するような構成および処理により、カメラ110により撮影された映像から人の滞留を検出する精度を向上させることが実現される。
図2は、実施形態にかかるシステム100において実行される処理の流れを示した例示的かつ模式的なシーケンス図である。なお、図2では、簡単化のため、クラウドプラットフォーム120が単にクラウド120として表現されている。
まず、ユーザ端末130を用いてカメラ110に対して各種の条件の設定を行うための設定処理について説明する。詳細は後述するが、条件とは、たとえば、人の検出をどのような基準(感度)で行うか、カメラ110の撮影範囲のうちのどのエリアを対象として人の検出を行うか、人が検出されたことの通知をどのような形で行うか、などに関する条件である。
設定処理においては、まず、ステップS201において、ユーザ端末130の入力受付部131は、下記の図3~図5に示されるようなUI(ユーザインターフェース)を介したユーザの操作に基づく条件の設定を受け付ける。
図3は、実施形態にかかる条件の設定の一例としての感度の設定を説明するための例示的かつ模式的な図である。
図3に示される画像300は、各種の設定を行うためのユーザの操作を受け付けるUIの一例である。ユーザは、画像300において、左側の設定ボタン310の選択に応じて右側に表示される領域320内の各項目を設定することで、人の検出をどのような基準(感度)で行うかの設定を行うことができる。領域320には、人の検出を行うか否かのオンオフを切り替えるためのインターフェース321と、人の検出をどのような感度で行うかをLOW、MIDDLE、HIGH(LOW<MIDDLE<HIGHという順番で感度が高くなる、すなわちより敏感に人を検出するようになる)の3つのレベルの中から選択するためのインターフェース322と、人の検出を行う対象のエリアを設定するためのインターフェース323と、を含む。ここで、何れかの感度(LOW、MIDDLE、HIGH)が選択されると、それに対応して人の滞留時間の閾値と人の移動速度の閾値とが設定される。これらの閾値は、図6を用いて後述するように、固定値としてもよい。その場合、感度が高いほど、各閾値を低くすればよい。また、図7を用いて後述するように、可変値としてもよい。その場合、感度が高いほど、可変値を示すカーブの勾配を急にしたり、その基準となる人の移動速度の閾値の最小値や人の滞留時間の閾値の最小値を小さくしたりすればよい。なお、この図ではデフォルトとしてHIGHが選択されている状態を示しているが、デフォルトはLOWやMIDDLEとしてもよく、ユーザにより選択可能としてもよい。また、そもそも人の滞留時間の閾値と人の移動速度の閾値は、このように感度を介した設定に限らず、ユーザによりそれぞれ直接設定可能としてもよい。ユーザによりインターフェース323が操作されると、たとえば次の図4に示されるような画像400が出力される。
図4は、実施形態にかかる条件の設定の一例としてのエリアの設定を説明するための例示的かつ模式的な図である。
図4に示される画像401は、ユーザによるエリアの設定に関する操作を受け付けるUIの一例である。
この画像401において、左側には、設定済のエリア名が記載された領域402が一覧表示されるとともに、設定可能なエリア数の上限値と現在設定済のエリア数を示す情報、および新たなエリアを登録するための新規作成ボタン403が表示される。各領域402において、左側にある色が付されたアイコンは、領域401Aに表示された画像400内に設定されたエリアの色と連動しており、これをクリックして色を選択することで、エリア毎に所望の色を設定することが可能である。また、各領域402の右側にある削除ボタンは、これをクリックすることで、対応するエリアを削除することが可能である。領域402の中から1つをクリックして選択すると、その名称と、領域401Aに表示された画像400内の対応するエリアが共に強調表示され、選択されていることが識別可能となる。エリアが選択された状態で、画像400内の対応するエリアをクリック/ドラッグ等すると、そのエリアの位置や形を変更することが可能である。
たとえば、図4に示される例では、設定済のエリアとして、6つのエリア411~416が存在している。ユーザは、新規作成ボタン403をクリックした後、領域401Aに表示された画像400上でドラッグ&ドロップ操作などを行うことにより、所望の位置、大きさ、および形のエリアを設定することが可能である。たとえば、エリアの頂点を順次クリックしていき、最後の頂点でダブルクリックすることにより、それらの頂点を結ぶエリアを設定することが可能である。
なお、上記のように設定されたエリア内で人が検出されたことの通知をどのような形で行うかは、次の図5に示されるようなUIを用いて設定される。
図5は、実施形態にかかる条件の設定の一例としての通知の設定を説明するための例示的かつ模式的な図である。
図5に示される画像300は、各種の設定を行うためのユーザの操作を受け付けるUIの一例である。ユーザは、画像300において、左側の通知ボタン340の選択に応じて右側に表示される領域350、360、および370を用いて、人が検出されたことの通知をどのような形で行うかの設定を行うことができる。領域350は、「モーション」、「サウンド」、「接続・切断」、「人検知」などといった各項目についての電子メールまたはプッシュ通知による通知を各曜日で行うか否かをスケジュール形式で設定および確認可能なインターフェースである。領域360には、電子メールで通知を行うか否かのオンオフと、プッシュ通知で通知を行うか否かのオンオフと、を切り替えるためのインターフェースが表示される。また、領域370は、人が検出されたことの通知を行うか否かのオンオフを切り替えるためのインターフェースが表示される。ユーザは、領域350を利用したり、領域360および370を利用したりすることで、人が検出されたことの通知を各曜日で行うか否か、および当該通知を電子メールで行うかプッシュ通知で行うか、を設定することが可能である。
図2に戻り、ステップS201における条件の設定が終了すると、ステップS202において、ユーザ端末130の通信部132は、設定された条件をクラウドプラットフォーム120に送信する。そして、クラウドプラットフォーム120の通信部121は、ユーザ端末130により送信された条件を受信する。
そして、ステップS203において、クラウドプラットフォーム120の通信部121は、ユーザ端末130から受信した条件をカメラ110に転送する。そして、カメラ110の通信部113は、クラウドプラットフォーム120により送信された条件を受信する。
そして、ステップS204において、カメラ110の検知部112は、クラウドプラットフォーム120から受信した条件を、以下で説明する撮影処理に利用するために保存する。このようにして、設定処理が終了する。
次に、カメラ110による映像の撮影と、当該映像に基づく各種の情報の検知と、を含む撮影処理について説明する。
撮影処理においては、まず、ステップS211において、カメラ110の撮影部111は、映像を撮影する。そして、ステップS212において、カメラ110の検知部112は、上述した設定処理において行われた設定に基づいて、映像から人を検知する検知処理を実行する。検知処理は、たとえば下記の図6Aおよび図6B、または図7に示されるようなロジックで実行される。
図6Aは、実施形態にかかる検知処理で使用されるロジックの一例を説明するための例示的かつ模式的な図である。
図6Aに示される例において、曲線L601は、検知された人の移動速度の時間遷移の一例を示している。横軸は、人が検知されてからの経過時間(滞留時間)に対応し、縦軸は、検知された人の移動速度に対応する。
ここで、実施形態では、人の滞留を検出するにあたり、人の滞留時間と、人の移動速度と、の2つの指標が考慮される。したがって、図6Aに示される例では、人の滞留時間に関する閾値(第1閾値)tthreshだけでなく、人の移動速度に関する閾値(第2閾値)Vthreshが設けられている。
すなわち、実施形態では、人の滞留時間が閾値tthresh以上となっただけでは、人の滞留が検出されず、人の滞留時間が閾値tthresh以上となり、かつ人の移動速度が閾値Vthresh以上となった場合(図6Aに示されるポイントP601参照)に、人の滞留が検出される。これにより、たとえば人の滞留時間だけを考慮して人の滞留を検出する場合に比べて、人の滞留の検出の精度を向上させることができる。
図6Bは、実施形態にかかる検知処理で使用されるロジックの一例を説明するための例示的かつ模式的な図である。図6Bは、図6Aを用いて説明した上記のロジックを別の例に基づいて再度説明するためのものである。
すなわち、図6Bに示される例において、曲線L602は、検知された人の移動速度の時間遷移の一例を示している。横軸は、人が検知されてからの経過時間(滞留時間)に対応し、縦軸は、検知された人の移動速度に対応する。
ここで、図6Bで示されるロジックは、図6Aで示されるロジックと同様である。したがって、図6Bに示される例では、人の滞留時間が閾値tthresh以上となり、かつ人の移動速度が閾値Vthresh以上となったポイントP602で、人の滞留が検出される。
なお、上述した2つの閾値は、ユーザの指示に応じて互いに別々に設定されてもよいし、2つの閾値が一体で設定されてもよい。後者の場合、たとえば、2つの閾値の複数の組み合わせを予め設定しておき、当該複数の組み合わせの中から、ユーザが設定した上記の感度に応じた1つの組み合わせを決定する、といった構成が採用されうる。
ところで、上記では、滞留時間の閾値および移動速度の閾値が固定の場合が例示されているが、実施形態では、次の図7に示されるように、滞留時間の閾値と移動速度の閾値とが連動して変化してもよい。
図7は、実施形態にかかる検知処理で使用されるロジックの他の一例を説明するための例示的かつ模式的な図である。
図7に示される例において、曲線L701およびL702は、2人の人の移動速度の時間遷移の例を示している。横軸は、人が検知されてからの経過時間(滞留時間)に対応し、縦軸は、検知された人の移動速度に対応する。
ここで、図7に示される例では、滞留時間の閾値と移動速度の閾値とが、曲線L700で示されるように連動して変化する。すなわち、図7に示される例では、滞留時間の閾値が、移動速度が大きいほど小さくなるように設定されている。あるいは、移動速度の閾値が、滞留時間が大きいほど小さくなるように設定されている。なお、移動速度の閾値は、最低限、Vthresh_minよりも大きい値になるように設定される。このような曲線L700を式で表すと、たとえば、移動速度の閾値Vthresh=(所定のパラメータa/滞留時間t)+Vthresh_minとなる。なお、移動速度の閾値の代わりに、滞留時間の閾値について、最低限、Tthresh_minよりも大きい値になるように設定してもよい。このような曲線L700を式で表すと、たとえば、滞留時間の閾値Tthresh=(所定のパラメータb/移動速度v)+Tthresh_minとなる。
これにより、図7に示される例では、人の滞留時間および移動速度が共に曲線L700を超えたポイントP701およびP702で、人の滞留が検出される。一般に、滞留時間が小さくても移動速度が大きければ対象が人である可能性が高く、また、滞留時間が大きければ移動速度が小さくても対象が人である可能性が高いため、図7に示されるロジックによれば、人の滞留を精度よく検出することができる。
図2に戻り、ステップS212が終了すると、ステップS213において、カメラ110の通信部113は、ステップS211において撮影された映像と、ステップS212における検知処理の結果とを、クラウドプラットフォーム120に送信する。ここで、映像には、撮影した時刻が対応付けられ、検知結果には、少なくとも上記の検知ロジックにより人の滞留が検出された時刻が含まれる。なお、検知結果は、ステップS201で設定された条件を満たすときのみ送信しても、それ以外のときにも送信してもよい。そして、クラウドプラットフォーム120の通信部121は、カメラ110により送信された情報を受信する。
そして、ステップS214において、クラウドプラットフォーム120の記録部122は、カメラ110から受信した映像および検知結果を記録する。そして、ステップS215において、クラウドプラットフォーム120の画像情報生成部123は、人の滞留の検出結果を示す情報として、たとえば次の図8に示されるような、タイムラインと呼ばれる画像情報を生成する。このようにして、撮影処理が終了する。
図8は、実施形態にかかるタイムラインの表示態様の一例を示した例示的かつ模式的な図である。
図8に示される画像800は、クラウドプラットフォーム120により生成されるタイムラインを含むUIの一例である。このUIは、後述する確認処理において、人の滞留の検出結果を示す情報としてユーザ端末130に提供されうる。
図8に示される画像800は、タイムラインが表示される領域801を含む。このタイムラインは、たとえば上記の検知ロジックにより人の滞留が検出された場合などのような、上述した設定処理において設定された各種の条件を満たす映像のタイミングを時系列で識別可能に示すものである。ここでいう識別可能とは、たとえばタイムラインにおいて前述の条件を満たすタイミングに色付きの帯やフラグなどのオブジェクトを付けて表示する態様を意味する。色を付ける場合、その色は前述したエリアの設定(図4参照)において設定した色と同じ色に対応させてもよい。図8において、人の滞留が検出されたケースが「人検知」のイベントとして分類され、他のイベント「サウンド」「モーション」「スナップショット」、「立ち入り検知」に対して識別可能な色で、タイムライン上に色付きの帯が表示される。そして、その中からユーザが所望の時刻を指定すると、その時刻に対応する映像が上部に表示される。このようなタイムラインをユーザ端末130に提供すれば、映像において着目すべきタイミングを適切に絞り込むことが可能になる。
なお、実施形態において、人の滞留の検出結果を示す情報を出力する形式は、上記のタイムラインのような形式に限られない。たとえば、実施形態では、人の滞留が検出されたタイミングの映像を示すサムネイルが時系列で並んだものが、人の滞留の検出結果を示す情報として出力されてもよい。
図2に戻り、上述した撮影処理において撮影される映像および検知される情報を確認するための確認処理について説明する。
確認処理においては、まず、ステップS221において、ユーザ端末130の入力受付部131は、上述した撮影処理において撮影される映像および検知される情報を確認するためのユーザの操作に基づく確認要求を受け付ける。
そして、ステップS222において、ユーザ端末130の通信部132は、受け付けた確認要求をクラウドプラットフォーム120に送信する。そして、クラウドプラットフォーム120の通信部121は、ユーザ端末130により送信された確認要求を受信する。
そして、ステップS223において、クラウドプラットフォーム120の画像情報生成部223は、ユーザ端末130から受信した確認要求に応じて、上述した撮影処理において生成した画像情報(タイムライン)を読み出す。
そして、ステップS224において、クラウドプラットフォーム120の通信部121は、ステップS223において読み出された画像情報をユーザ端末130に送信する。そして、ユーザ端末130の通信部132は、クラウドプラットフォーム120により送信された画像情報を受信する。
そして、ステップS225において、ユーザ端末130の表示再生部133は、クラウドプラットフォーム120から受信した画像情報をディスプレイ(不図示)に表示する。画像情報は、たとえば上述した図8に示されるような態様で表示される。
そして、ステップS226において、ユーザ端末130の入力受付部131は、上述した画像情報に基づいてユーザが所望のタイミングの映像を選択(指定)する操作としての選択指示を受け付ける。具体的には、上述した図8におけるタイムライン上の時刻の指定が、選択指示に当たる。
そして、ステップS227において、ユーザ端末130の通信部132は、受け付けた選択指示をクラウドプラットフォーム120に送信する。そして、クラウドプラットフォーム120の通信部121は、ユーザ端末130により送信された選択指示を受信する。
そして、ステップS228において、クラウドプラットフォーム120の画像情報生成部223は、ユーザ端末130から受信した選択指示に応じて、上述した撮影処理において記録した映像を読み出す。すなわち、ステップS226で選択(指定)されたものに対応する時刻の映像を読み出す。
そして、ステップS229において、クラウドプラットフォーム120の通信部121は、ステップS228において読み出された映像をユーザ端末130に送信する。そして、ユーザ端末130の通信部132は、クラウドプラットフォーム120により送信された映像を受信する。
そして、ステップS230において、ユーザ端末130の表示再生部133は、クラウドプラットフォーム120から受信した映像をディスプレイ(不図示)上で再生する。このようにして、確認処理が終了する。
なお、実施形態において、人の滞留の検出結果は、ユーザが手動で行った確認要求に応じてユーザに通知されるだけでなく、ステップS221で設定した通知の条件に従って自動でユーザに通知されることもありうる。このような自動での通知は、たとえば次の図9に示されるような電子メールをユーザ端末に送信する態様で行われる。また、このような自動での通知は、たとえばユーザ端末においてOSまたは映像確認用のアプリ等を利用中にそれらを介してプッシュ通知を出力するという態様で行われてもよい。
図9は、実施形態にかかる電子メールを用いた通知の態様の一例を示した例示的かつ模式的な図である。
図9に示される画像900は、人の滞留の検出結果が電子メールで通知される場合に当該電子メール内に表示されるUIの一例である。ユーザは、画像900の上部に設けられた領域910内に表示された画像により、人の滞留が検出されたタイミングでの映像を確認することができ、画像900の下部に設けられた領域910内に表示された内容により、人の滞留がどのエリアに設置されたどのデバイスにより検出されたかを確認することができる。
以上説明したように、実施形態にかかるシステム100は、カメラ110により撮影された映像を解析する。システム100は、映像において対象(たとえば人)を検知し、対象の滞留時間を計測し、対象の移動速度を計測する。システム100は、対象の滞留時間が第1閾値以上であり、かつ対象の移動速度が第2閾値以上である場合に、対象が滞留していることを検出し、対象の滞留を示す出力(たとえば通知)を行う。このような構成によれば、たとえば夜間のような人の滞留が検出しにくい場合において、人の滞留時間だけを考慮して人の滞留を検出する場合に比べて、人の滞留の検出の精度を向上させることができる。
なお、実施形態では、上記の第1閾値および第2閾値の複数の組み合わせが予め設定されうる。この場合、システム100は、ユーザの指示に応じて、対象の滞留の検出の感度を設定し、当該感度に応じて、上記の複数の組み合わせの中から、対象の滞留の検出に使用する第1閾値および第2閾値の1つの組み合わせを決定しうる。このような構成によれば、第1閾値および第2閾値という2つの閾値を感度という1つの指標を用いて簡単に設定することができる。
また、実施形態において、システム100は、ユーザの指示に応じて、上記の第1閾値および第2閾値を別々に設定しうる。このような構成によれば、第1閾値および第2閾値を別々に設定することで、対象の滞留を検出する基準をより細かく設定することができる。
また、実施形態において、上記の第2閾値は、対象の滞留時間が大きいほど小さくなるように変化しうるし、上記の第1閾値は、対象の移動速度が大きいほど小さくなるように変化しうる。一般に、滞留時間が小さくても移動速度が大きければ対象の滞留を検出すべき状況である可能性が高く、また、滞留時間が大きければ移動速度が小さくても対象の滞留を検出すべき状況である可能性が高いため、このような構成によれば、対象の滞留を精度よく検出することができる。
また、実施形態において、システム100は、対象を検知するエリアを設定する。このような構成によれば、映像に映っている全エリアではなく、設定したエリアに絞って対象を検知することができるので、対象を検知する処理の負担を軽減することができる。
さらに、実施形態において、システム100は、対象の滞留を示す出力は、対象の滞留を検出したタイミングをタイムラインで識別可能に表示することを含む(図8参照)。このような構成によれば、対象の滞留を検出したタイミングを視覚的に分かりやすくユーザに通知することができる。
また、実施形態にかかるシステム100は、対象の滞留を示す出力は、対象の滞留を検出したことを電子メールで通知することを含む(図9参照)。このような構成によれば、電子メールを用いて、対象の滞留を検出したことをユーザに容易に通知することができる。
最後に、上述した実施形態にかかるシステム100を構成するカメラ110、クラウドプラットフォーム120、およびユーザ端末130に含まれるハードウェア構成について説明する。実施形態において、カメラ110、クラウドプラットフォーム120、およびユーザ端末130は、たとえば次の図10に示されるようなハードウェア構成を有する情報処理装置(コンピュータ)1100を含むように構成される。
図10は、実施形態にかかるカメラ110、クラウドプラットフォーム120、およびユーザ端末130に含まれる情報処理装置1100のハードウェア構成を示した例示的かつ模式的なブロック図である。
なお、図10は、カメラ110、クラウドプラットフォーム120、およびユーザ端末130において実質的に共通するハードウェア構成のみを示したものである。このため、カメラ110、クラウドプラットフォーム120、およびユーザ端末130の実際のハードウェア構成は、図10に示されている以外の部分で様々に異なる点について留意されたい。
図10に示されるように、情報処理装置1000は、プロセッサ1010と、メモリ1020と、ストレージ1030と、入出力インターフェース(I/F)1040と、通信インターフェース(I/F)1050と、を備えている。これらのハードウェアは、バス1060に接続されている。
プロセッサ1010は、たとえばCPU(Central Processing Unit)として構成され、情報処理装置1000の各部の動作を統括的に制御する。
メモリ1020は、たとえばROM(Read Only Memory)およびRAM(Random Access Memory)を含み、プロセッサ1010により実行されるプログラムなどの各種のデータの揮発的または不揮発的な記憶、およびプロセッサ1010がプログラムを実行するための作業領域の提供などを実現する。
ストレージ1030は、たとえばHDD(Hard Disk Drive)またはSSD(Solid State Drive)を含み、各種のデータを不揮発的に記憶する。
入出力インターフェース1040は、たとえばキーボードおよびマウスなどのような入力装置(不図示)から情報処理装置1000へのデータの入力と、たとえば情報処理装置1000からディスプレイおよびスピーカなどのような出力装置(不図示)へのデータの出力と、を制御する。
通信インターフェース1050は、情報処理装置1000が他の装置と通信を実行することを可能にする。
実施形態にかかるカメラ110、クラウドプラットフォーム120、およびユーザ端末130が有する各機能モジュール(図1参照)は、それぞれの情報処理装置1000のプロセッサ1010がメモリ1020またはストレージ1030に予め記憶された情報処理プログラムを実行した結果として、ハードウェアとソフトウェアとの協働による機能モジュール群として実現される。ただし、実施形態では、図1に示される機能モジュール群のうち一部または全部が、専用に設計された回路のようなハードウェアのみによって実現されてもよい。
なお、上述した情報処理プログラムは、必ずしもメモリ1020またはストレージ1030に予め記憶されている必要はない。たとえば、上述した情報処理プログラムは、フレキシブルディスク(FD)のような各種の磁気ディスク、またはDVD(Digital Versatile Disk)のような各種の光ディスクなどといった、コンピュータで読み取り可能な媒体にインストール可能な形式または実行可能な形式で記録されたコンピュータプログラムプロダクトとして提供されてもよい。
また、上述した情報処理プログラムは、インターネットなどのネットワーク経由で提供または配布されてもよい。すなわち、上述した情報処理プログラムは、インターネットなどのネットワークに接続されたコンピュータ上に格納された状態で、ネットワーク経由でのダウンロードを受け付ける、といった形で提供されてもよい。
以上、本開示の実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これらの新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これらの実施形態およびその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100 システム
110 カメラ
111 撮影部
112 検知部
113 通信部
120 クラウドプラットフォーム
121 通信部
122 記録部
123 画像情報生成部
130 ユーザ端末
131 入力受付部
132 通信部
133 表示再生部

Claims (17)

  1. カメラにより撮影された映像を解析するシステムであって、
    前記映像において対象を検知し、
    前記対象の滞留時間を計測し、
    前記対象の移動速度を計測し、
    前記対象の滞留時間が第1閾値以上であり、かつ前記対象の移動速度が第2閾値以上である場合に、前記対象を検知したことを示す出力を行う、
    システム。
  2. 前記第1閾値および前記第2閾値の複数の組み合わせが予め設定されており、
    ユーザの指示に応じて、前記対象の検知の感度を設定し、
    前記感度に応じて、前記複数の組み合わせの中から、使用する前記第1閾値及び前記第2閾値の1つの組み合わせを決定する、
    請求項1に記載のシステム。
  3. ユーザの指示に応じて、前記第1閾値及び前記第2閾値を別々に設定する、
    請求項1に記載のシステム。
  4. 前記第2閾値は、前記対象の滞留時間が大きいほど小さくなるように変化する、
    請求項1に記載のシステム。
  5. 前記第1閾値は、前記対象の移動速度が大きいほど小さくなるように変化する、
    請求項1に記載のシステム。
  6. カメラにより撮影された映像を解析するシステムであって、
    前記映像において対象を検知し、
    前記対象の滞留時間を計測し、
    前記対象の移動速度を計測し、
    前記対象の移動速度が閾値以上となった場合に、前記対象を検知したことを示す出力を行い、
    前記閾値は、前記対象の滞留時間が大きいほど小さくなるように変化する、
    システム。
  7. カメラにより撮影された映像を解析するシステムであって、
    前記映像において対象を検知し、
    前記対象の滞留時間を計測し、
    前記対象の移動速度を計測し、
    前記対象の滞留時間が閾値以上となった場合に、前記対象を検知したことを示す出力を行い、
    前記閾値は、前記対象の移動速度が大きいほど小さくなるように変化する、
    システム。
  8. 前記対象を検知するエリアを設定する、
    請求項1~7のうちいずれか1項に記載のシステム。
  9. 前記出力は、前記対象を検知したタイミングをタイムラインで識別可能に表示することである、
    請求項1~7のうちいずれか1項に記載のシステム。
  10. 前記出力は、前記対象を検知したことを電子メールで通知することである、
    請求項1~7のうちいずれか1項に記載のシステム。
  11. 前記出力は、前記対象を検知したタイミングの映像をサムネイルで表示することである、
    請求項1~7のうちいずれか1項に記載のシステム。
  12. カメラにより撮影された映像を解析するシステムで実行される方法であって、
    前記映像において対象を検知することと、
    前記対象の滞留時間を計測することと、
    前記対象の移動速度を計測することと、
    前記対象の滞留時間が第1閾値以上であり、かつ前記対象の移動速度が第2閾値以上である場合に、前記対象を検知したことを示す出力を行うことと、
    を含む、方法。
  13. カメラにより撮影された映像を解析するシステムで実行される方法であって、
    前記映像において対象を検知することと、
    前記対象の滞留時間を計測することと、
    前記対象の移動速度を計測することと、
    前記対象の移動速度が閾値以上となった場合に、前記対象を検知したことを示す出力を行うことと、
    を含み、
    前記閾値は、前記対象の滞留時間が大きいほど小さくなるように変化する、
    方法。
  14. カメラにより撮影された映像を解析するシステムで実行される方法であって、
    前記映像において対象を検知することと、
    前記対象の滞留時間を計測することと、
    前記対象の移動速度を計測することと、
    前記対象の滞留時間が閾値以上となった場合に、前記対象を検知したことを示す出力を行うことと、
    を含み、
    前記閾値は、前記対象の移動速度が大きいほど小さくなるように変化する、
    方法。
  15. カメラにより撮影された映像を解析するシステムを構成するコンピュータに、
    前記映像において対象を検知することと、
    前記対象の滞留時間を計測することと、
    前記対象の移動速度を計測することと、
    前記対象の滞留時間が第1閾値以上であり、かつ前記対象の移動速度が第2閾値以上である場合に、前記対象を検知したことを示す出力を行うことと、
    を実行させるための、プログラム。
  16. カメラにより撮影された映像を解析するシステムを構成するコンピュータに、
    前記映像において対象を検知することと、
    前記対象の滞留時間を計測することと、
    前記対象の移動速度を計測することと、
    前記対象の移動速度が閾値以上となった場合に、前記対象を検知したことを示す出力を行うことと、
    を実行させるためのプログラムであって、
    前記閾値は、前記対象の滞留時間が大きいほど小さくなるように変化する、
    プログラム。
  17. カメラにより撮影された映像を解析するシステムを構成するコンピュータに、
    前記映像において対象を検知することと、
    前記対象の滞留時間を計測することと、
    前記対象の移動速度を計測することと、
    前記対象の滞留時間が閾値以上となった場合に、前記対象を検知したことを示す出力を行うことと、
    を実行させるためのプログラムであって、
    前記閾値は、前記対象の移動速度が大きいほど小さくなるように変化する、
    プログラム。
JP2022211834A 2022-12-28 2022-12-28 システムおよびプログラム Active JP7302088B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022211834A JP7302088B1 (ja) 2022-12-28 2022-12-28 システムおよびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022211834A JP7302088B1 (ja) 2022-12-28 2022-12-28 システムおよびプログラム

Publications (2)

Publication Number Publication Date
JP7302088B1 true JP7302088B1 (ja) 2023-07-03
JP2024094914A JP2024094914A (ja) 2024-07-10

Family

ID=86996670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022211834A Active JP7302088B1 (ja) 2022-12-28 2022-12-28 システムおよびプログラム

Country Status (1)

Country Link
JP (1) JP7302088B1 (ja)

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006019845A (ja) * 2004-06-30 2006-01-19 Canon Sales Co Inc 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP2010258704A (ja) * 2009-04-23 2010-11-11 Canon Inc 再生装置及び再生方法
JP2010277547A (ja) * 2009-06-01 2010-12-09 Chuo Electronics Co Ltd 混雑状況検出装置、方法、およびプログラム
JP2012123460A (ja) * 2010-12-06 2012-06-28 Toshiba Corp 映像検索装置、及び映像検索方法
WO2014129042A1 (ja) * 2013-02-21 2014-08-28 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
WO2015040929A1 (ja) * 2013-09-19 2015-03-26 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
WO2017026155A1 (ja) * 2015-08-11 2017-02-16 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2017188023A (ja) * 2016-04-08 2017-10-12 パナソニックIpマネジメント株式会社 施設内活動分析装置、施設内活動分析システムおよび施設内活動分析方法
JP2020091649A (ja) * 2018-12-05 2020-06-11 キヤノン株式会社 画像処理装置、画像処理システム、画像処理装置の制御方法、及び、プログラム
JP2020166590A (ja) * 2019-03-29 2020-10-08 グローリー株式会社 監視システム、監視装置、監視方法および監視プログラム
JP2020178149A (ja) * 2019-04-15 2020-10-29 シャープ株式会社 監視装置及び監視方法
JP2021072475A (ja) * 2019-10-29 2021-05-06 パナソニックIpマネジメント株式会社 監視システムおよび監視システム設定プログラム
JP2021100173A (ja) * 2019-12-20 2021-07-01 シャープ株式会社 監視システム及び監視方法
JP2021136656A (ja) * 2020-02-28 2021-09-13 パナソニックi−PROセンシングソリューションズ株式会社 顔検知システム
JP2021145243A (ja) * 2020-03-12 2021-09-24 パナソニックIpマネジメント株式会社 監視カメラ管理装置、監視カメラ管理システム、監視カメラ管理方法及びプログラム
JP2022053126A (ja) * 2020-09-24 2022-04-05 エヌ・ティ・ティ・コミュニケーションズ株式会社 混雑状況推定装置、方法およびプログラム

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006019845A (ja) * 2004-06-30 2006-01-19 Canon Sales Co Inc 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP2010258704A (ja) * 2009-04-23 2010-11-11 Canon Inc 再生装置及び再生方法
JP2010277547A (ja) * 2009-06-01 2010-12-09 Chuo Electronics Co Ltd 混雑状況検出装置、方法、およびプログラム
JP2012123460A (ja) * 2010-12-06 2012-06-28 Toshiba Corp 映像検索装置、及び映像検索方法
WO2014129042A1 (ja) * 2013-02-21 2014-08-28 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
WO2015040929A1 (ja) * 2013-09-19 2015-03-26 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
WO2017026155A1 (ja) * 2015-08-11 2017-02-16 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2017188023A (ja) * 2016-04-08 2017-10-12 パナソニックIpマネジメント株式会社 施設内活動分析装置、施設内活動分析システムおよび施設内活動分析方法
JP2020091649A (ja) * 2018-12-05 2020-06-11 キヤノン株式会社 画像処理装置、画像処理システム、画像処理装置の制御方法、及び、プログラム
JP2020166590A (ja) * 2019-03-29 2020-10-08 グローリー株式会社 監視システム、監視装置、監視方法および監視プログラム
JP2020178149A (ja) * 2019-04-15 2020-10-29 シャープ株式会社 監視装置及び監視方法
JP2021072475A (ja) * 2019-10-29 2021-05-06 パナソニックIpマネジメント株式会社 監視システムおよび監視システム設定プログラム
JP2021100173A (ja) * 2019-12-20 2021-07-01 シャープ株式会社 監視システム及び監視方法
JP2021136656A (ja) * 2020-02-28 2021-09-13 パナソニックi−PROセンシングソリューションズ株式会社 顔検知システム
JP2021145243A (ja) * 2020-03-12 2021-09-24 パナソニックIpマネジメント株式会社 監視カメラ管理装置、監視カメラ管理システム、監視カメラ管理方法及びプログラム
JP2022053126A (ja) * 2020-09-24 2022-04-05 エヌ・ティ・ティ・コミュニケーションズ株式会社 混雑状況推定装置、方法およびプログラム

Similar Documents

Publication Publication Date Title
US10313627B2 (en) Apparatus for playing back recorded video images related to event, and method thereof
US10120536B2 (en) Monitoring method
JP5421887B2 (ja) サーバ装置、表示装置、送信方法、及び表示方法
US20180061065A1 (en) Information processing apparatus, method thereof, and computer-readable storage medium
US11250273B2 (en) Person count apparatus, person count method, and non-transitory computer-readable storage medium
KR20110093040A (ko) 피사체 감시 장치 및 방법
JP6602067B2 (ja) 表示制御装置、表示制御方法、プログラム
US20200045242A1 (en) Display control device, display control method, and program
JP7302088B1 (ja) システムおよびプログラム
CN112449159B (zh) 一种监控视频显示控制方法、装置、电子设备和存储介质
US7496212B2 (en) Change detecting method and apparatus
JP2021027579A (ja) 画像判定装置および画像判定システム
JP2024094914A (ja) システムおよびプログラム
JP7279241B1 (ja) システムおよびプログラム
US11361797B2 (en) Moving image reproduction apparatus, moving image reproduction method, moving image reproduction system, and storage medium
CN112307882A (zh) 图像判断装置及图像判断***
JP2017225037A (ja) 画像処理装置及び撮像装置
JP2022076241A (ja) 情報処理装置、情報処理方法およびプログラム
JP2017174152A (ja) 監視システム
CN113727067B (zh) 报警显示方法、装置、电子设备及机器可读存储介质
US9785656B2 (en) Data processing apparatus for clustering time-series data based on generated reference values and data processing method for same
US20230171382A1 (en) Image capturing apparatus, method of controlling the same, and storage medium
KR20140066560A (ko) 영상 감시장치에서 객체영역을 설정하는 방법 및 이를 위한 장치
US11570367B2 (en) Method and electronic device for intelligent camera zoom
JP5737192B2 (ja) 画像処理プログラム、画像処理装置および画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230217

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230621

R150 Certificate of patent or registration of utility model

Ref document number: 7302088

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350