JP7482090B2 - 推定装置、推定方法及びプログラム - Google Patents

推定装置、推定方法及びプログラム Download PDF

Info

Publication number
JP7482090B2
JP7482090B2 JP2021139338A JP2021139338A JP7482090B2 JP 7482090 B2 JP7482090 B2 JP 7482090B2 JP 2021139338 A JP2021139338 A JP 2021139338A JP 2021139338 A JP2021139338 A JP 2021139338A JP 7482090 B2 JP7482090 B2 JP 7482090B2
Authority
JP
Japan
Prior art keywords
area
unit
determination
state change
change event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021139338A
Other languages
English (en)
Other versions
JP2023032950A (ja
Inventor
雄土 山地
大祐 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2021139338A priority Critical patent/JP7482090B2/ja
Priority to US17/668,905 priority patent/US20230062785A1/en
Priority to CN202210170171.3A priority patent/CN115937730A/zh
Publication of JP2023032950A publication Critical patent/JP2023032950A/ja
Application granted granted Critical
Publication of JP7482090B2 publication Critical patent/JP7482090B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/945User interactive design; Environments; Toolboxes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明の実施形態は推定装置、推定方法及びプログラムに関する。
監視カメラ等により撮像された画像に写る物体の軌跡を追従することによって得られた追従軌跡に基づいて、解析対象の画像領域を推定し、当該画像領域を解析する技術が従来から知られている。
特許第6558579号公報 特開2016-116137号公報
第23回画像の認識・理解シンポジウム、小林 大祐、柴田 智行「空間・時系列のAttentionを用いた物体検出と複数物体追跡の同時推定」 Zhang,Feng,et al."Distribution-aware coordinate representation for human pose estimation."Proceedings of the IEEE/CVF conference on computer vision and pattern recognition.2020
しかしながら、従来の技術では、解析対象の画像領域をより高精度に推定することが難しかった。
実施形態の推定装置は、追従部と抽出部と推定部と第1の判定部とを備える。追従部は、時系列画像に含まれる第1の物体を検出し、前記第1の物体の追従軌跡を生成する。抽出部は、前記追従軌跡の出現、消失、屈曲又は滞留を示す状態変化イベントを検出し、前記状態変化イベントが発生した前記第1の物体の座標を抽出する。推定部は、前記座標に基づいて判定領域を推定する。第1の判定部は、前記判定領域の外から前記判定領域内へ前記第1の物体が侵入したか否かを判定する処理、及び、前記判定領域内での前記状態変化イベントが発生したか否かを判定する処理の少なくとも一方を行う。前記第1の物体は、人物である。前記追従部は、前記人物の骨格点の追従軌跡を生成する。前期推定部は、前記人物の片手に含まれる骨格点のみの状態変化イベントが発生する片手領域と、前記人物の両手の骨格点の状態変化イベントが発生する両手領域と、を含む前記判定領域を推定する。
第1実施形態の推定装置の機能構成の例を示す図。 第1実施形態の状態変化イベントの検出例を示す図。 第1実施形態の判定領域の推定方法の例を示す図。 第1実施形態の判定領域における判定方法の例を示す図。 第1実施形態の推定・判定処理の例を示すフローチャート。 第2実施形態の推定装置の機能構成の例を示す図。 第2実施形態の判定領域における判定方法の例を示す図。 第2実施形態の推定・判定処理の例を示すフローチャート。 第3実施形態の推定装置の機能構成の例を示す図。 第3実施形態の組み立て作業の例について説明するための図。 第3実施形態の組み立て作業の例について説明するための図。 第3実施形態の推定・判定処理の例について説明するための図。 第3実施形態の推定・判定処理の例について説明するための図。 第3実施形態の推定・判定処理の例を示すフローチャート。 第4実施形態の推定装置の機能構成の例を示す図。 第4実施形態の表示情報の例1について説明するための図。 第4実施形態の表示情報の例2について説明するための図。 第4実施形態の表示情報の例3について説明するための図。 第4実施形態の表示情報の例4について説明するための図。 第4実施形態の表示情報の例5について説明するための図。 第1乃至第4実施形態の推定装置のハードウェア構成の例を示す図。
以下に添付図面を参照して、推定装置、推定方法及びプログラムの実施形態を詳細に説明する。
(第1実施形態)
はじめに、第1実施形態の推定装置の概要について説明する。第1実施形態の推定装置100は、例えば、出入口を撮影した監視カメラにより撮像された画像を使用して、入退室の人数をカウントするために用いられる。出入口は、部屋の出入り口でもよいし、エレベータなどでもよい。なお、第1実施形態の推定装置に入力される画像は、出入口付近を示す画像領域から人物が現れたり、人物が映らなくなったりする画像領域を含む画像であれば、任意の画像でよい。
推定装置は、例えば人物を追従し、追従軌跡が出現する場面では、人物がドアなどから撮影範囲に入ってきたと判定し、消失する場合は、ドアなどから人物が出て行ったと判定する。推定装置は、例えば追従軌跡が出現、消失する領域を推定し、判定領域として用いる。推定装置は、判定領域に追従軌跡が重なった場合や、判定領域内で追従軌跡が例えば出現又は消失する場合に、追従軌跡をカウントすることで、入退室者のカウントをする。
[機能構成の例]
図1は第1実施形態の推定装置100の機能構成の例を示す図である。第1実施形態の推定装置100は、追従部1、抽出部2、推定部3及び判定部4を備える。
≪各部の概要≫
追従部1は、画像に映る物体を時系列方向に追従し、追従軌跡を出力する。
抽出部2は、追従軌跡から出現、消失などの状態変化があった物体の位置を示す座標を抽出する。物体の位置を示す座標は、例えば検出された物体を特定する領域の位置を示す座標等である。例えば、物体を特定する領域は、物体を内包する矩形である。
推定部3は、抽出部で抽出された矩形や座標が集中する領域を、判定領域として推定する。
判定部4は、判定領域内で、物体の追従軌跡を判定する。
≪各部の詳細≫
追従部1は、例えばカメラで撮像された映像等の時系列画像を取得し、当該画像から物体を検出し、当該物体を時系列方向に対応付けることで追従する。追従部1は、例えば、非特許文献1に示されている追従方法を用いる。第1実施形態では、人物を追従する例を示すが、追従対象の物体は人物に限られない。
抽出部2は、追従軌跡の出現、消失、屈曲又は滞留を示す状態変化イベントを検出し、当該状態変化イベントが発生した物体の座標を抽出する。
図2は第1実施形態の状態変化イベントの検出例を示す図である。図2は、出入口202で、追従軌跡201の出現又は消失(状態変化イベントの例)が発生している場合を示す。図2の例では、抽出部2は、追従部1により生成された複数の追従軌跡201から、人物の出現及び消失が起こる時点、つまり、追従軌跡201の開始点を含む矩形の位置を示す座標と、追従軌跡201の終了点を含む矩形の位置を示す座標を抽出する。
なお、抽出部2は、開始点だけではなく、開始点の複数フレーム後の点を含む矩形の位置を示す座標を含む矩形の位置を示す座標をあわせて抽出してもよい。同様に、抽出部2は、終了点だけではなく、終了点の複数フレーム前の点を含む矩形の位置を示す座標をあわせて抽出してもよい。
また、抽出部2は、事前に設定されたマスク領域からは矩形を抽出しないことで、誤った領域を生成しないようにしてもよい。同様に、抽出部2は、画像端では、追従軌跡201が途切れるため、画像端では、状態変化イベントの抽出を行わないようにしてもよい。
さらに、追従部1が、複数種別の物体を追従し、抽出対象である物体以外の物体が検出されている場合、抽出部2は、当該物体付近では、抽出を行わないようにしてもよい。そして、抽出部2は、判定処理の対象となる物体と、判定処理の対象となる物体とは種別の異なる物体との距離が閾値よりも小さい場合、状態変化イベントの検出を行わない。これによって、例えば、人物が車の後ろを通る場合に追従軌跡201が途切れ、車付近に判定領域が生成されることを防ぐことができる。
推定部3は、抽出された矩形を用いてクラスタリングを行う。クラスタリングの方法は、矩形をクラスタに分割できる方法であれば、任意でよい。推定部3は、例えば、Mean-shiftクラスタリング法によってクラスタリングを行う。
クラスタリングの距離指標には、矩形の中心座標間の距離や、矩形の重なり率などが用いられる。
推定部3は、クラスタリングによって生成されたクラスタに含まれる矩形(以下、「サンプル矩形」という。)から判定領域を生成することによって、判定領域を推定する。なお、サンプル矩形は、矩形に限らず、任意の形のサンプル領域でよい。
図3は第1実施形態の判定領域の推定方法の例を示す図である。例えば、推定部3は、追従軌跡201の出現に対応するサンプル矩形203、及び、追従軌跡201の消失に対応するサンプル矩形204の左上座標の平均値と、当該サンプル矩形203及び204の右下座標の平均値とによって決定される領域を、判定領域205として生成する。推定部3は、判定部4で取りこぼしが少なくなるように、サンプル矩形203及び204から生成された判定領域205に、一定の割合で拡大処理をしてもよい。
また例えば、推定部3は、複数のサンプル矩形203及び204を内包するようにして、判定領域205を生成してもよい。具体的には、例えば推定部3は、複数のサンプル矩形203及び204の中央座標を用いて、画像上での中央座標の分布を内包するように判定領域205を生成してもよい。
また例えば、推定部3は、画像をグリッド状に区切り、中央座標や矩形領域を各グリッドに投票することで、座標が集中するグリッドを抽出し、抽出されたグリッドを判定領域205として推定してもよい。
図4は第1実施形態の判定領域205における判定方法の例を示す図である。判定部4は、追従軌跡201と判定領域205とを用いて、物体の侵入、及び、状態変化イベントの発生の少なくとも一方の判定を行う。
例えば、判定部4は、判定領域205に対して、追従軌跡201に対応する物体(第1実施形態では人物)の検出矩形206a~206cの重なり率を求め、重なり率があらかじめ設定されている閾値より大きい場合、判定領域205に侵入したと判定する。
なお、判定方法は、重なり率以外にも、検出矩形206a~206cの中央座標が判定領域205に内包される場合に侵入していると判定する方法でもよい。また例えば、追従軌跡201の状態変化イベントが判定領域205内で発生したか否かのみを判定してもよい。図4の例では、追従軌跡201が出現した物体の検出矩形206aと、追従軌跡201が消失した物体の検出矩形206b及び206cとが、判定領域205内での判定に用いられている。
判定部4は、判定領域205が推定された後に、新たに追従が開始された追従軌跡201を対象としてもよいし、判定領域205を推定するために用いた追従軌跡201も判定の対象に含めてもよい。
最後に、判定部4は、判定領域205内への侵入を検知した場合、侵入状態を検知したことを出力する。また、判定部4は、侵入した回数をカウントし、回数を出力してもよい。さらに、判定部4は、判定領域205内での状態変化イベントを判定して、その回数をカウントする場合に、状態変化イベントの種類(出現、消失、屈曲又は滞留)ごとにカウントを分けてもよい。
[推定・判定処理の例]
図5は第1実施形態の推定・判定処理の例を示すフローチャートである。はじめに、追従部1が、時系列画像に含まれる物体を検出し、当該物体の追従軌跡201を生成する(ステップS1)。次に、抽出部2が、追従軌跡201の出現、消失、屈曲又は滞留を示す状態変化イベントを検出し、当該状態変化イベントが発生した物体の座標(例えば物体を内包する検出矩形206の位置を示す座標)を抽出する(ステップS2)。
次に、推定部3が、ステップS2で抽出された座標に基づいて判定領域205を推定する(ステップS3)。次に、判定部4が、判定領域205の外から判定領域205内へ物体が侵入したか否かを判定する処理、及び、判定領域205内での状態変化イベントが発生したか否かを判定する処理の少なくとも一方を行う(ステップS4)。
以上、説明したように、第1実施形態の推定装置100によれば、解析対象の画像領域(第1実施形態の説明では、判定領域205)をより高精度に推定することができる。例えば、出入口202を出入りする人物の数を、人手で判定領域205を設定することなく、自動で高精度に推定された判定領域205で人物のカウント等の解析をすることができる。
従来は、計数ラインを人手で設定する必要があったり、計数ラインを人手で設定しやすいように推奨領域を提示する必要があったりした。従来の技術では、例えば追従軌跡201が重複して通過する領域を求めており、追従軌跡201から1点を選べないため、計数ラインの通過で人数をカウントするという性質上、自動的に判定すべき計数ラインを決定することが難しかった。
一方、第1実施形態の推定装置100によれば、追従軌跡201の状態変化イベントが起こった座標を収集し、状態変化イベントが起こる座標が集中する領域を、判定領域205として求めることで、自動的に判定領域205を推定することができる。
人物を追従し、追従軌跡201が出現する場面では、人物がドアなどから撮影範囲に入ってきたことを判断でき、消失する場合は、ドアなどから人物が出て行ったことを判断できる。追従軌跡201が出現、消失する領域は出入口があることが推定でき、その領域を用いて、入退室人数のカウントをすることが可能である。
また、例えば、作業台を撮像した映像で、人の手を追従したときに、追従軌跡201が屈曲する場面では、離れたところにある部品を取得したと判断でき、追従軌跡201が滞留する場面では、手元の作業領域で部品を組み付けていると判断することができる。追従軌跡201が屈曲、滞留する領域は部品領域や手元の作業領域であると推定でき、その領域を用いて手の位置や追従軌跡201を判定することで、組み立て作業などの作業分析を行うことが可能である。
なお、人の手を追従する場合の動作の詳細については、第3実施形態で説明する。
このように、追従軌跡201の中から状態が変化する座標を収集し、集中する領域を求めることで、出入口領域や作業分析に必要な領域を推定することができ、人手で領域を設定することなく、計数化が可能である。
(第2実施形態)
次に第2実施形態について説明する。第2実施形態の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。
第2の実施形態では、追従部1で複数種別の物体の検出と、当該物体の追従をすることで、車などの動いている物体への乗降者数の計測する例について説明する。
追従部1では、例えばバスと人といった種別の違う物体の検出を行い、それぞれの物体の追従を行う。
[機能構成の例]
図6は第2実施形態の推定装置100-2の機能構成の例を示す図である。第2実施形態の推定装置100-2は、追従部1、抽出部2、推定部3、第1の判定部4及び第2の判定部5を備える。第1の判定部4は、第1実施形態の判定部4に対応し、第2実施形態では、第2の判定部5が新たに追加されている。
まず、第2実施形態の追従部1は、人物などの第1の物体と、バスなどの第2の物体とをそれぞれ検出し、それぞれの物体を追従する。
第2の判定部5は、第2の物体の追従軌跡201の時系列の動き量を算出し、閾値以下の時間が一定以上になった場合、第2の物体は静止していると判定する。
抽出部2は、第2の判定部5により第2の物体が静止したと判定された場合、第2の物体の検出領域内、または第2の物体の検出領域の周辺で、追従軌跡201の状態変化イベントが発生した第1の物体の座標の抽出を行う。
推定部3は、第1の物体を判定対象として、第1実施形態と同様に、判定領域205の推定処理を行う。
図7は第2実施形態の判定領域205a及び205bにおける判定方法の例を示す図である。判定領域205a及び205bは、検出矩形206d及び206eにより検出された第1の物体(図7の例では、人物)の追従軌跡201の状態変化イベントが発生したか否かが判定される領域である。検出矩形207は、第2の物体(図7の例では、バス)が検出された領域である。なお、検出矩形207は、矩形に限らず、任意の形の領域でよい。
第1の判定部4は、判定領域205a及び205b内で、追従軌跡201が消失した場合は第2の物体に乗車、追従軌跡201が出現した場合は降車したとして、別々にカウントを行う。
第2の判定部5は、第2の物体の追従軌跡201における時系列の動き量を算出し、動き量が閾値より大きい時間が一定以上になったとき、第2の物体が静止した状態から動き出したと判定する。
推定部3は、第2の物体が静止した状態から動き出した場合、判定領域205a及び205bを消去する。
これによって、例えばバスが出発したときに、不要となった判定領域205a及び205bを削除することができる。
[推定・判定処理の例]
図8は第2実施形態の推定・判定処理の例を示すフローチャートである。はじめに、追従部1が、時系列画像に含まれる第1及び第2の物体を検出し、当該第1及び第2の物体の追従軌跡201を生成する(ステップS21)。
次に、抽出部2が、追従軌跡201の出現、消失、屈曲又は滞留を示す状態変化イベントを検出し、当該状態変化イベントが発生した第1及び第2の物体の座標を抽出する(ステップS2)。
次に、第2の判定部5が、第2の物体の追従軌跡201の滞留から、第2の物体の静止を判定する(ステップS23)。
次に、推定部3が、状態変化イベント(図7の例では、出現及び消失)が発生した第1の物体の座標に基づいて判定領域205を推定する(ステップS24)。
次に、第1の判定部4が、判定領域205の外から判定領域205内へ物体が侵入したか否かを判定する処理、及び、判定領域205内での状態変化イベント(図7の例では、出現及び消失)が発生したか否かを判定する処理の少なくとも一方を行う(ステップS25)。
次に、第2の判定部5が、第2の物体の追従軌跡201における時系列の動き量を算出し、動き量が閾値より大きい時間が一定以上になったか否かによって、第2の物体の運動開始を判定する(ステップS26)。
次に、推定部3が、第2の物体の運動が開始した場合、すなわち第2の物体が静止した状態から動き出した場合、判定領域205を消去する(ステップS27)。
以上、説明したように、第2実施形態の推定装置100-2は、バスなどの第2の物体に対して、乗降を行うために静止したタイミングで判定領域205を生成し、出発したタイミングで、判定領域205を削除する。これにより、例えばバスごとに乗降人数を計測することができる。
また、第2実施形態の推定装置100-2は、第2の物体の静止状態を判定して、判定領域205を生成するので、任意の動く第2の物体に対しても、人数をカウントすることができる。画像に画一な領域でしか判定ができない従来の課題を解決することができる。
(第3実施形態)
次に第3実施形態について説明する。第3実施形態の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。
第3実施形態では、人物の骨格点を追従することで、作業分析に用いる判定領域(作業領域)の推定を行う例について説明する。
[機能構成の例]
図9は第3実施形態の推定装置100-3の機能構成の例を示す図である。第3実施形態の推定装置100-3は、追従部1、抽出部2、推定部3及び判定部4を備える。
追従部1は、人物の検出を行うとともに、当該人物の骨格点の検出を行う。骨格点の検出には、例えば非特許文献2で示される方法が用いられる。追従部1は、人物を追従し、その人物の骨格点を検出することで、各骨格点を追従する。
抽出部2は、手の骨格点の追従軌跡201について、屈曲を示す状態変化イベントと、滞留を示す状態変化イベントがあった手の位置を示す座標を抽出する。
図10及び図11は、第3実施形態の組み立て作業の例について説明するための図である。具体的には、抽出部2は、手の骨格点208の追従軌跡201のうち3フレームを1組として取り出し、フレームt-1の骨格点Aとフレームtの骨格点Bとを結ぶ線分と、フレームtの骨格点Bとフレームt+1の骨格点Cとを結ぶ線分のなす角θを算出する。
そして、抽出部2は、線分のなす角θが、閾値より小さければ、手の骨格点208の追従軌跡201の屈曲を検出する。
なす角θの算出については、骨格点208の検出位置の誤差の影響を軽減するために、屈曲判定をするフレームから数フレーム前後の座標を用いてもよい。
滞留については、抽出部2は、手の骨格点208の時系列での動き量を算出し、閾値より小さい時間が一定以上であるなら、手の骨格点208の追従軌跡201の滞留を検出する。
組み立て作業は両手で行うことが多いため、滞留に関しては、抽出部2は、左手の骨格点208と、右手の骨格点208とが、同時に滞留した場合に、滞留を検出してもよい。
また、抽出部2は、両手の距離を算出し、当該距離が一定以下である場合のみ、滞留を検出してもよい。さらに、抽出部2は、長時間滞留している場合は、他の作業の待ち状態であることが考えられるため、滞留時間が一定以上になった場合は、滞留の状態変化イベントとして検出しなくてもよい。
図12及び図13は、第3実施形態の推定・判定処理の例について説明するための図である。
例えば、組み立て作業であれば、離れたところにある部品領域から部品が取得され、手元の作業領域で部品の組付けが繰り返される。部品領域から部品が取得されるとき、手の骨格点208の追従軌跡201は、手元領域から部品領域へ伸びた後に、部品を取得して手元領域に戻るような軌跡となり、追従軌跡201の屈曲位置に部品領域があると判定できる。また、手の追従軌跡201が滞留する場所は手元での組み立て作業領域であると判定できる。
推定部3は、第1実施形態と同様にして、抽出部2により抽出された手の骨格点208の屈曲を示す座標から、部品領域を示す判定領域205-1~205-3を推定する。また、推定部3は、抽出部2により抽出された手の骨格点208の滞留を示す座標から、手元の作業領域を示す判定領域205-4を推定する。
なお、滞留に関しては、推定部3は、滞留時の両手の骨格点208の座標(図11参照)を内包するように、判定領域205-4を推定してもよい。この場合、例えば推定部3は、人物の片手に含まれる骨格点208のみの状態変化イベントが発生する片手領域として、判定領域205-1~205-3を推定し、人物の両手の骨格点208の状態変化イベントが発生する両手領域として判定領域205-4を推定する。
判定部4は、複数の判定領域205-1~205-4に対する手の侵入、手の骨格点208の追従軌跡201の屈曲、滞留を判定する。これにより、判定部4は、部品の取得回数(判定領域205-1~205-3への侵入回数)や取得時間、取得順序の誤り検出、作業領域(判定領域205-4)での作業時間などを計測する。
また、判定部4は、判定領域205-1~205-4に順番を設定し、その順番通りに手が侵入しているかを判定してもよい。判定部4は、追従した手の軌跡をもとに、判定領域205-1~205-4に侵入する順番を求めて、自動的に判定領域205-1~205-4の順番を設定してもよい。
判定部4は、複数の追従軌跡201のうち、侵入する判定領域205-1~205-4の順番が異なる場合は、例えば図12のように、平均的な順番(判定領域205-4→判定領域205-1→判定領域205-4→判定領域205-2→判定領域205-4→判定領域205-3→判定領域205-4)を採用してもよい。
さらに判定部4は、例えば図13に示すように、平均的な手の侵入順序から逸脱している場合(判定領域205-4→判定領域205-1→判定領域205-4→判定領域205-3→判定領域205-4)、手順ミスを検出し、エラーを出力する。
[推定・判定処理の例]
図14は第3実施形態の推定・判定処理の例を示すフローチャートである。はじめに、追従部1が、時系列画像に含まれる手の骨格点208を検出し、当該手の骨格点208の追従軌跡201を生成する(ステップS31)。次に、抽出部2が、追従軌跡201の屈曲又は滞留を示す状態変化イベントを検出し、当該状態変化イベントが発生した手の骨格点208の座標を抽出する(ステップS32)。
次に、推定部3が、ステップS32で抽出された座標に基づいて判定領域205を推定する(ステップS33)。
次に、判定部4が、判定領域205の外から判定領域205内へ物体が侵入したか否かを判定する処理、及び、判定領域205内での状態変化イベントが発生したか否かを判定する処理を行う(ステップS34)。これにより、判定部4は、部品の取得回数や取得時間、取得順序の誤り検出、作業領域での作業時間などを計測する。
以上、説明したように、第3実施形態によって、組み立て作業での部品領域や作業領域を人手で設定することなく、作業時間の時間計測を可能とする。
なお、追従する物体は人物以外でもよく、例えば、駐車場に設置されたカメラ画像に映る車を追従する場合は、長時間滞留する場所を駐車領域として、判定領域205を推定し、車の侵入判定をすることで、駐車場の駐車割合計測や満車判定をすることができる。
(第4実施形態)
次に第4実施形態について説明する。第4実施形態の説明では、第2実施形態と同様の説明については省略し、第2実施形態と異なる箇所について説明する。
第4実施形態では、判定領域205の表示や、判定領域205のパラメータ設定、判定結果などの表示を行う場合について説明する。
[機能構成の例]
図15は第4実施形態の推定装置100-4の機能構成の例を示す図である。第4実施形態の推定装置100-4は、追従部1、抽出部2、推定部3、第1の判定部4、第2の判定部5、表示部6及び入力部7を備える。第4実施形態では、表示部6及び入力部7が新たに追加されている。
表示部6は、判定領域205の修正、判定領域205の有効又は無効の選択、並びに、判定領域205の削除等の操作を受け付ける表示情報を表示する。
入力部7は、表示情報に表示された入力欄及びチェックボックス等に対する入力操作を受け付ける。
図16は第4実施形態の表示情報の例1について説明するための図である。図16は、判定領域205を表示する表示情報の例を示す。図16の例では、表示部6は、カメラ画像に重畳する形で、判定領域205を表示する。表示部6は、判定領域205が矩形でない場合は、楕円などの形で判定領域205を表示してもよい。また、表示部6は、推定に利用された追従軌跡201の状態変化イベントが発生した座標209を合わせて表示してもよい。
判定領域205の表示GUIは、領域の修正、削除、有効/無効選択などのボタンを含む。
領域の修正では、例えば、判定領域205が矩形であれば、左上の座標と右上の座標の位置をGUIで調整できるようにすることで矩形位置を修正できるようにする。
判定領域の削除では、判定領域205を選択するGUI(Graphical User Interface)によって、削除対象の判定領域205を選択できるようにし、削除ボタンを押すことでその領域を削除できるようにする。そのとき、表示部6は、判定領域205の推定に利用された追従軌跡201の状態変化イベントが発生した座標209も表示情報から削除してもよい。
有効/無効の選択では、判定領域205の選択し、有効/無効のボタンを押すことで、有効無効状態をトグルさせる。または、表示部6は、選択されたときに有効であるか無効であるかをチェックボックスなどの形式で画面に表示し、ユーザーからチェックボックスの選択を受け付けて、切り替えるようにしてもよい。
図16に示すような表示情報によって、判定領域205の確認ができ、誤って推定された判定領域205をユーザーによって修正、削除及び選択ができるようになる。
図17は第4実施形態の表示情報の例2について説明するための図である。図17は、判定領域205のパラメータを設定するGUIの例を示す。まず、表示部6は、ユーザーからの領域選択210を受け付け、その判定領域205に設定されているパラメータを表示する。
表示部6は、追従軌跡201を判定するためのパラメータとして、出現、消失、屈曲及び滞留などなどの状態変化イベントをチェックボックスで選択できるようにする表示情報を表示する。
第1の判定部4は、チェックされた状態変化イベントが判定領域205内で起きた場合に、判定処理を行う。
また、表示部6は、状態変化イベントを用いずに、検出された人物の検出領域が、判定領域205と重なった場合に判定処理をする設定を有効にするチェックボックスを更に含む表示情報を表示してもよい。
第1の判定部4において、判定領域205に、人物の検出領域が侵入したか否かを判定する際に、領域(例えば矩形)の重なり率で判定する場合は、その重なり率の閾値をGUIから設定できるようにしてもよい。
また、表示部6は、領域を区別するために、領域名を入力するGUIを表示してもよい。
図17に示すような表示情報によって、判定領域205における判定方法を、ユーザーが望む判定方法に調整できるようになる。
図18は第4実施形態の表示情報の例3について説明するための図である。図18は、判定領域205における判定処理をしている際に表示される表示情報の例を示す。図18の例では、判定領域205に名前を表示し、別途その領域の状態を表す表示をする。領域の状態として表示する情報は、状態変化イベントごとのカウント数や侵入を検知しているか否かなどである。また、表示部6は、検知された状態変化イベントを表示してもよい。また、表示部6は、侵入を検知している判定領域205については、強調表示をするようにしてもよい。
また、表示部6は、判定領域205に加えて、人物の検出結果や追従結果を表示してもよい。また、表示部6は、過去の履歴として、過去に侵入を検知した画像と、検知結果(例えば「入室」)とを時刻とともに表示してもよい。
図18に示すような表示情報によって、リアルタイムに判定状況をユーザーに表示することができる。
図19は第4実施形態の表示情報の例4について説明するための図である。図19は、バスなどの移動物体の検出領域(検出矩形207)から判定領域205a及び205bを求めて、人物の侵入を検知する場合の表示例を示す。図18と異なるのは、表示部6が、移動物体に対する検出矩形207と、その状態(例えば「停車中」)を表示している点である。また、表示部6は、カウントなどの判定結果の表示にも移動物体の状態(「停車中」及び「出発」等)を表示している。
図19に示すような表示情報によって、リアルタイムに判定状況をユーザーに表示することができる。
図20は第4実施形態の表示情報の例5について説明するための図である。図20は、作業分析における処理結果の表示例を示す。表示部6は、作業分析向けの表示では、作業状態を表すメッセージスペースに、手の侵入順序を示した表示を行う。
また、表示部6は、平均作業時間や、手元作業時間、作業回数なども表示する。平均作業時間は、手の侵入順序が一巡するまでの平均時間を示す。手元作業時間は、手元の作業エリアに、両手が入った状態の時間を示す。作業回数は、手の侵入順序が一巡した回数を示す。
また、表示部6は、部品領域(判定領域205-1~205-3)への手の侵入の順序において、順序通りでない場合に、作業ミスを検知した旨を表示する。図20の例のように、順序通りでない侵入を判定領域205-3で検知した場合、表示部6は、順序がとばされた判定領域205-2に作業ミスを検知した旨のメッセージと強調表示を行う。また、表示部6は、作業状態を表すメッセージスペースにも同様の表示を行う。
表示部6は、作業時間や作業回数を、画像の撮像時刻と合わせて、グラフとして一覧表示してもよい。
図19に示すような表示情報によって、各作業における作業時間が可視化され、作業におけるボトルネックが明らかになるとともに、作業ミスの検知を行うことができる。
最後に、第1乃至第4実施形態の推定装置100~100-4のハードウェア構成の例について説明する。
[ハードウェア構成の例]
図13は第1乃至第4実施形態の推定装置100~100-4のハードウェア構成の例を示す図である。
推定装置100~100-4は、制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305及び通信IF306を備える。制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305及び通信IF306は、バス310を介して接続されている。
制御装置301は、補助記憶装置303から主記憶装置302に読み出されたプログラムを実行する。主記憶装置302は、ROM(Read Only Memory)、及び、RAM(Random Access Memory)等のメモリである。補助記憶装置303は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、及び、メモリカード等である。
表示装置304は表示情報を表示する。表示装置304は、例えば液晶ディスプレイ等である。入力装置305は、推定装置100~100-4して動作させるコンピュータを操作するためのインタフェースである。入力装置305は、例えばキーボードやマウス等である。なお、表示装置304及び入力装置305は、推定装置100~100-4と接続可能な外部の管理端末等の表示機能及び入力機能を利用してもよい。
通信IF306は、他の装置と通信するためのインタフェースである。
コンピュータで実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、メモリカード、CD-R及びDVD(Digital Versatile Disc)等のコンピュータで読み取り可能な記憶媒体に記録されてコンピュータ・プログラム・プロダクトとして提供される。
またコンピュータで実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。またコンピュータで実行されるプログラムをダウンロードさせずにインターネット等のネットワーク経由で提供するように構成してもよい。
またコンピュータで実行されるプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
コンピュータで実行されるプログラムは、上述の推定装置100~100-4の機能構成(機能ブロック)のうち、プログラムによっても実現可能な機能ブロックを含むモジュール構成となっている。当該各機能ブロックは、実際のハードウェアとしては、制御装置301が記憶媒体からプログラムを読み出して実行することにより、上記各機能ブロックが主記憶装置302上にロードされる。すなわち上記各機能ブロックは主記憶装置302上に生成される。
なお上述した各機能ブロックの一部又は全部をソフトウェアにより実現せずに、IC(Integrated Circuit)等のハードウェアにより実現してもよい。
また複数のプロセッサを用いて各機能を実現する場合、各プロセッサは、各機能のうち1つを実現してもよいし、各機能のうち2つ以上を実現してもよい。
また第1乃至第4実施形態の推定装置100~100-4の動作形態は任意でよい。第1乃至第4実施形態の推定装置100~100-4を、例えばネットワーク上のクラウドシステムを構成する装置として動作させてもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 追従部
2 抽出部
3 推定部
4 判定部(第1の判定部)
5 第2の判定部
6 表示部
7 入力部
100 推定装置
301 制御装置
302 主記憶装置
303 補助記憶装置
304 表示装置
305 入力装置
306 通信IF

Claims (12)

  1. 時系列画像に含まれる第1の物体を検出し、前記第1の物体の追従軌跡を生成する追従部と、
    前記追従軌跡の出現、消失、屈曲又は滞留を示す状態変化イベントを検出し、前記状態変化イベントが発生した前記第1の物体の座標を抽出する抽出部と、
    前記座標に基づいて判定領域を推定する推定部と、
    前記判定領域の外から前記判定領域内へ前記第1の物体が侵入したか否かを判定する処理、及び、前記判定領域内での前記状態変化イベントが発生したか否かを判定する処理の少なくとも一方を行う第1の判定部と、を備え、
    前記第1の物体は、人物であり、
    前記追従部は、前記人物の骨格点の追従軌跡を生成し、
    前期推定部は、前記人物の片手に含まれる骨格点のみの状態変化イベントが発生する片手領域と、前記人物の両手の骨格点の状態変化イベントが発生する両手領域と、を含む前記判定領域を推定する、
    推定装置。
  2. 前記追従部は、前記第1の物体とは種別の異なる第2の物体を検出し、前記第2の物体の追従軌跡を更に生成し、
    前記第2の物体の追従軌跡に基づいて前記第2の物体の動きを判定する第2の判定部を更に備え、
    前記抽出部は、前記第2の判定部により前記第2の物体が静止したと判定された場合、前記第2の物体の検出領域内、または当該第2の物体の検出領域の周辺で、前記状態変化イベントが発生した前記第1の物体の座標を抽出する、
    請求項に記載の推定装置。
  3. 前記推定部は、前記第2の物体が静止した状態から動き出した場合、前記判定領域を消去する、
    請求項に記載の推定装置。
  4. 前記抽出部は、前記第1の物体と第3の物体との距離が第2の閾値よりも小さい場合、前記状態変化イベントの検出を行わない、
    請求項乃至のいずれか1項に記載の推定装置。
  5. 前記推定部は、前記片手領域及び前記両手領域に対して、前記人物の骨格点の侵入又は状態変化イベントが発生する順序を推定し、
    前記第1の判定部は、前記順序に従って侵入又は状態変化イベントが発生しているか否かを判定する、
    請求項1乃至4のいずれか1項に記載の推定装置。
  6. 前記判定領域の修正、前記判定領域の有効又は無効の選択、並びに、前記判定領域の削除の操作を受け付ける表示情報を表示する表示部、
    を更に備える請求項乃至のいずれか1項に記載の推定装置。
  7. 前記第1の判定部は、前記判定領域の外から前記判定領域内へ前記第1の物体が侵入した回数、及び、前記判定領域内での前記状態変化イベントが発生した回数の少なくとも一方を前記表示部に表示する、
    請求項に記載の推定装置。
  8. 前記表示部は、前記追従軌跡の出現の抽出の有効又は無効の選択、前記追従軌跡の消失の抽出の有効又は無効の選択、前記追従軌跡の屈曲の抽出の有効又は無効の選択、並びに、前記追従軌跡の滞留の抽出の有効又は無効の選択の操作を受け付ける表示情報を更に表示する、
    請求項又はに記載の推定装置。
  9. 前記抽出部は、前記時系列画像の端では前記座標の抽出を行わない、
    請求項1乃至のいずれか1項に記載の推定装置。
  10. 前記推定部は、前記座標、又は、複数の前記座標に基づいて抽出された領域をクラスタリングし、前記クラスタリングにより分類されたサンプル領域から、前記判定領域を推定する、請求項1乃至のいずれか1項に記載の推定装置。
  11. 推定装置が、時系列画像に含まれる第1の物体を検出し、前記第1の物体の追従軌跡を生成するステップと、
    前記推定装置が、前記追従軌跡の出現、消失、屈曲又は滞留を示す状態変化イベントを検出し、前記状態変化イベントが発生した前記第1の物体の座標を抽出するステップと、
    前記推定装置が、前記座標に基づいて判定領域を推定するステップと、
    前記推定装置が、前記判定領域の外から前記判定領域内へ前記第1の物体が侵入したか否かを判定する処理、及び、前記判定領域内での前記状態変化イベントが発生したか否かを判定する処理の少なくとも一方を行うステップと、を含み、
    前記第1の物体は、人物であり、
    前記生成するステップは、前記人物の骨格点の追従軌跡を生成し、
    前記推定するステップは、前記人物の片手に含まれる骨格点のみの状態変化イベントが発生する片手領域と、前記人物の両手の骨格点の状態変化イベントが発生する両手領域と、を含む前記判定領域を推定する、
    推定方法。
  12. コンピュータを、
    時系列画像に含まれる第1の物体を検出し、前記第1の物体の追従軌跡を生成する追従部と、
    前記追従軌跡の出現、消失、屈曲又は滞留を示す状態変化イベントを検出し、前記状態変化イベントが発生した前記第1の物体の座標を抽出する抽出部と、
    前記座標に基づいて判定領域を推定する推定部
    前記判定領域の外から前記判定領域内へ前記第1の物体が侵入したか否かを判定する処理、及び、前記判定領域内での前記状態変化イベントが発生したか否かを判定する処理の少なくとも一方を行う第1の判定部、として機能させ、
    前記第1の物体は、人物であり、
    前記追従部は、前記人物の骨格点の追従軌跡を生成し、
    前期推定部は、前記人物の片手に含まれる骨格点のみの状態変化イベントが発生する片手領域と、前記人物の両手の骨格点の状態変化イベントが発生する両手領域と、を含む前記判定領域を推定する、
    プログラム。
JP2021139338A 2021-08-27 2021-08-27 推定装置、推定方法及びプログラム Active JP7482090B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021139338A JP7482090B2 (ja) 2021-08-27 2021-08-27 推定装置、推定方法及びプログラム
US17/668,905 US20230062785A1 (en) 2021-08-27 2022-02-10 Estimation apparatus, estimation method, and computer program product
CN202210170171.3A CN115937730A (zh) 2021-08-27 2022-02-24 推测装置、推测方法以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021139338A JP7482090B2 (ja) 2021-08-27 2021-08-27 推定装置、推定方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2023032950A JP2023032950A (ja) 2023-03-09
JP7482090B2 true JP7482090B2 (ja) 2024-05-13

Family

ID=85288712

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021139338A Active JP7482090B2 (ja) 2021-08-27 2021-08-27 推定装置、推定方法及びプログラム

Country Status (3)

Country Link
US (1) US20230062785A1 (ja)
JP (1) JP7482090B2 (ja)
CN (1) CN115937730A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11983928B1 (en) * 2021-10-15 2024-05-14 Nvidia Corporation Dynamically composable object tracker configuration for intelligent video analytics systems

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016021121A1 (ja) 2014-08-05 2016-02-11 パナソニック株式会社 修正確認方法および修正確認装置
JP2017073642A (ja) 2015-10-06 2017-04-13 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2017525064A (ja) 2014-05-30 2017-08-31 プレイスメーター インコーポレイテッドPlacemeter Inc. ビデオデータを用いた活動モニタリングのためのシステム及び方法
JP2021103811A (ja) 2019-12-24 2021-07-15 キヤノン株式会社 情報処理装置、映像の要約方法、およびプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100419777B1 (ko) * 2001-10-09 2004-02-21 한국과학기술원 수화 인식 방법 및 시스템
JP4991595B2 (ja) * 2008-02-21 2012-08-01 株式会社東芝 パーティクルフィルタを使用する追跡システム
WO2011083572A1 (ja) * 2010-01-07 2011-07-14 株式会社 東芝 移動状態推定装置、方法およびプログラム
JP5845002B2 (ja) * 2011-06-07 2016-01-20 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP6618276B2 (ja) * 2015-05-29 2019-12-11 キヤノン株式会社 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP6433389B2 (ja) * 2015-08-04 2018-12-05 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
WO2017199840A1 (ja) * 2016-05-18 2017-11-23 日本電気株式会社 オブジェクト追跡装置、オブジェクト追跡方法および記録媒体
US10474884B2 (en) * 2016-11-14 2019-11-12 Aisin Seiki Kabushiki Kaisha Action determination device
JP6972756B2 (ja) * 2017-08-10 2021-11-24 富士通株式会社 制御プログラム、制御方法、及び情報処理装置
CN110796041B (zh) * 2019-10-16 2023-08-18 Oppo广东移动通信有限公司 主体识别方法和装置、电子设备、计算机可读存储介质
WO2021134169A1 (zh) * 2019-12-30 2021-07-08 华为技术有限公司 一种轨迹预测方法及相关设备
CN111640140B (zh) * 2020-05-22 2022-11-25 北京百度网讯科技有限公司 目标跟踪方法、装置、电子设备及计算机可读存储介质
JP7494033B2 (ja) * 2020-07-07 2024-06-03 株式会社日立製作所 アクティビティ検出装置、アクティビティ検出システム及びアクティビティ検出方法
US11508140B2 (en) * 2020-10-09 2022-11-22 Sensormatic Electronics, LLC Auto-configuring a region of interest (ROI) associated with a camera
CN112232271B (zh) * 2020-10-29 2023-09-12 上海有个机器人有限公司 一种基于激光的人流检测方法以及设备
TWI799761B (zh) * 2020-12-02 2023-04-21 晶睿通訊股份有限公司 監控場域識別方法及其監控設備

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017525064A (ja) 2014-05-30 2017-08-31 プレイスメーター インコーポレイテッドPlacemeter Inc. ビデオデータを用いた活動モニタリングのためのシステム及び方法
WO2016021121A1 (ja) 2014-08-05 2016-02-11 パナソニック株式会社 修正確認方法および修正確認装置
JP2017073642A (ja) 2015-10-06 2017-04-13 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2021103811A (ja) 2019-12-24 2021-07-15 キヤノン株式会社 情報処理装置、映像の要約方法、およびプログラム

Also Published As

Publication number Publication date
JP2023032950A (ja) 2023-03-09
US20230062785A1 (en) 2023-03-02
CN115937730A (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
JP6741130B2 (ja) 情報処理システム、情報処理方法及びプログラム
US10839227B2 (en) Queue group leader identification
US9684835B2 (en) Image processing system, image processing method, and program
US20090220123A1 (en) Apparatus and method for counting number of objects
JP6508041B2 (ja) 対象物監視システム、対象物監視方法および監視対象抽出プログラム
US11776274B2 (en) Information processing apparatus, control method, and program
JP5853141B2 (ja) 人数計測装置、人数計測システムおよび人数計測方法
US20150146006A1 (en) Display control apparatus and display control method
JP6210234B2 (ja) 画像処理システム、画像処理方法及びプログラム
JP6233624B2 (ja) 情報処理システム、情報処理方法及びプログラム
WO2006028106A1 (ja) 異常動作検出装置および異常動作検出方法
WO2014050432A1 (ja) 情報処理システム、情報処理方法及びプログラム
JP6779410B2 (ja) 映像解析装置、映像解析方法、及びプログラム
JP7482090B2 (ja) 推定装置、推定方法及びプログラム
US20230044673A1 (en) Detection device and control method of the same
CN111104845B (zh) 检测设备,控制方法及计算机可读记录介质
JP6933178B2 (ja) 制御装置、監視システム、監視カメラ制御方法および監視プログラム
JP2007257316A (ja) 物体計数装置
US11887309B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP2009140360A (ja) 行動分析装置および方法
JP6954416B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US10593045B2 (en) Information processing apparatus and method of controlling the same
JP2022037331A (ja) 迷子検知装置、迷子検知方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240426

R150 Certificate of patent or registration of utility model

Ref document number: 7482090

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150