JP7270617B2 - 歩行者流量ファネル生成方法及び装置、プログラム、記憶媒体、電子機器 - Google Patents

歩行者流量ファネル生成方法及び装置、プログラム、記憶媒体、電子機器 Download PDF

Info

Publication number
JP7270617B2
JP7270617B2 JP2020520032A JP2020520032A JP7270617B2 JP 7270617 B2 JP7270617 B2 JP 7270617B2 JP 2020520032 A JP2020520032 A JP 2020520032A JP 2020520032 A JP2020520032 A JP 2020520032A JP 7270617 B2 JP7270617 B2 JP 7270617B2
Authority
JP
Japan
Prior art keywords
head
shoulder region
tracking
shoulder
frame image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020520032A
Other languages
English (en)
Other versions
JP2020537240A (ja
Inventor
広 富 車
宇 陳
山 安
強 劉
志 翁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jingdong Century Trading Co Ltd
Beijing Jingdong Shangke Information Technology Co Ltd
Original Assignee
Beijing Jingdong Century Trading Co Ltd
Beijing Jingdong Shangke Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jingdong Century Trading Co Ltd, Beijing Jingdong Shangke Information Technology Co Ltd filed Critical Beijing Jingdong Century Trading Co Ltd
Publication of JP2020537240A publication Critical patent/JP2020537240A/ja
Application granted granted Critical
Publication of JP7270617B2 publication Critical patent/JP7270617B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06MCOUNTING MECHANISMS; COUNTING OF OBJECTS NOT OTHERWISE PROVIDED FOR
    • G06M11/00Counting of objects distributed at random, e.g. on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Description

関連出願の相互参照
本願は、2017年10月24日に出願された、発明の名称が「歩行者流量ファネル生成方法及び装置、記憶媒体、電子機器」であって、出願番号が201711002265.5である中国特許出願に基づいて優先権を主張し、当該中国特許出願のすべての内容を本願に援用する。
本発明は、データ処理技術の分野に関し、特に、歩行者流量ファネル生成方法及び装置、プログラム、記憶媒体、電子機器に関する。
社会の継続的な進歩に伴い、ビデオ監視システムの適用範囲は、益々拡大している。スーパーマーケット、ショッピングモール、体育館、空港、駅などの場所の出入口には、警備員及び管理者がこれらの場所の出入口を監視するように、監視カメラが取り付けられる。一方、スーパーマーケット、ショッピングモール、体育館、空港、駅などの場所に出入りする人流量は、上記の場所の運営者又は管理者にとって重要な意義を有し、ここで、人流量とは、一定の方向に流れる人数を指し、本明細書において、特に進入と退去の両方向に流れる人数を指す。
従来のビデオ監視において、人流量の統計は、主に監視人員の手動清算によって実現されるが、正確率を確保しにくい問題が存在し、また人件費が高い。
このため、人流量データ及び性別と年齢の統計データをより迅速且つ正確に取得し、さらに正確な人流量データ及び性別と年齢の統計データに基づいてより正確な歩行者流量ファネルを生成することができる歩行者流量ファネル生成方法を提供する必要がある。
なお、上記の背景技術の部分に開示されている情報は、本発明の背景に対する理解を深めるためのものに過ぎないため、当業者に知られている従来技術を構成しない情報を含んでもよい。
本発明は、少なくともある程度で関連技術の制限及び欠陥による1つ又は複数の課題を解決するために、歩行者流量ファネル生成方法及び装置、プログラム、記憶媒体、電子機器を提供することを目的とする。
本発明の一態様によれば、歩行者流量ファネル生成方法を提供し、前記方法は、
現在のフレームの画像を取得し、多目標追跡アルゴリズムにより前記現在のフレームの画像において追跡シーケンスセットにおける頭肩領域を追跡及び更新するステップと、
頭肩認識モデルに応じて前記現在のフレームの画像における頭肩領域を取得し、前記現在のフレームの画像における頭肩領域に応じて前記追跡シーケンスセットを更新するステップと、
歩行者をカウントするように前記追跡シーケンスセットにおける各頭肩領域の移動軌跡を分析し、前記現在のフレームの画像が最後のフレームの画像である場合、前記歩行者のカウント結果に基づいて歩行者流量ファネルを生成するステップと、を含む。
本発明の例示的な実施例において、前記現在のフレームの画像を取得する前に、前記方法は、
第1のフレームの画像を取得し、且つ、前記頭肩認識モデルに応じて前記第1のフレームの画像における頭肩領域を取得し、前記頭肩領域により前記追跡シーケンスセットの初期化を行うステップをさらに含む。
本発明の例示的な実施例において、前記方法は、
性別年齢認識モデルに応じて前記追跡シーケンスセットにおける各頭肩領域の年齢範囲及び性別を認識するステップをさらに含む。
本発明の例示的な実施例において、前記歩行者のカウント結果に基づいて歩行者流量ファネルを生成するステップは、
前記歩行者のカウント結果に基づいて、前記追跡シーケンスセットにおける各頭肩領域の年齢範囲及び性別を組み合わせて前記歩行者流量ファネルを生成するステップを含む。
本発明の例示的な実施例において、前記多目標追跡アルゴリズムにより前記現在のフレームの画像において追跡シーケンスセットにおける頭肩領域を追跡及び更新するステップは、
カーネル相関フィルタに基づく追跡アルゴリズムにより、前記現在のフレームの画像において前記追跡シーケンスセットにおける頭肩領域をそれぞれ追跡及び更新するステップを含む。
本発明の例示的な実施例において、前記カーネル相関フィルタに基づく追跡アルゴリズムにより、前記現在のフレームの画像において前記追跡シーケンスセットにおける頭肩領域をそれぞれ追跡及び更新するステップは、
前記追跡シーケンスセットにおける各頭肩領域の直前のフレームの画像での位置に基づいて、前記現在のフレームの画像において前記追跡シーケンスセットにおける各頭肩領域に対応する候補追跡目標をそれぞれ取得するステップと、
各前記頭肩領域に対応するトラッカーに応じて、対応的に各前記頭肩領域に対応する候補追跡目標の応答値をそれぞれ計算するステップと、
各前記頭肩領域に対応する候補追跡目標における最大応答値を持つ候補追跡目標を、対応する頭肩領域の前記現在のフレームの画像での追跡目標として確定するステップと、
各前記頭肩領域の前記現在のフレームの画像での追跡目標に応じて、対応的に前記追跡シーケンスセットにおける各頭肩領域を更新するステップと、を含む。
本発明の例示的な実施例において、前記方法は、各前記頭肩領域に対応するトラッカーを計算するステップをさらに含み、
各前記頭肩領域に対応するトラッカーを計算するステップは、
前記追跡シーケンスセットにおける各頭肩領域の前記直前のフレームの画像での位置に基づいて、前記直前のフレームの画像において前記追跡シーケンスセットにおける各頭肩領域に対応する第1のトレーニングサンプルセットをそれぞれ取得するステップと、
各前記頭肩領域に対応する第1のトレーニングサンプルセットに応じて回帰モデルをそれぞれトレーニングして、各前記頭肩領域に対応するトラッカーを得るステップと、を含む。
本発明の例示的な実施例において、前記方法は、畳み込みニューラルネットワークに応じて前記頭肩認識モデルを生成するステップをさらに含み、
畳み込みニューラルネットワークに応じて前記頭肩認識モデルを生成するステップは、
ImageNet分類データセットに応じてMobileNetネットワークをトレーニングして、前記MobileNetネットワークの重み値を得るステップと、
前記MobileNetネットワークに予め設けられた層数の畳み込み層を追加して、頭肩検出ネットワークを得り、ここで、前記畳み込み層のサイズが層ごとに小さくするステップと、
前記頭肩領域がマークアップされた第2のトレーニングサンプルセットを取得し、前記第2のトレーニングサンプルセットに応じて前記MobileNetネットワークの重み値を保持する前記頭肩検出ネットワークをトレーニングして、前記頭肩認識モデルを得るステップと、を含む。
本発明の例示的な実施例において、前記現在のフレームの画像における頭肩領域に応じて前記追跡シーケンスセットを更新するステップは、
前記現在のフレームの画像における各頭肩領域と前記追跡シーケンスセットにおける各頭肩領域との類似度を計算するステップと、
前記類似度に応じて前記追跡シーケンスセットを更新するステップと、を含む。
本発明の例示的な実施例において、前記現在のフレームの画像における各頭肩領域と前記追跡シーケンスセットにおける各頭肩領域との類似度を計算するステップは、
次の式により、前記現在のフレームの画像における各頭肩領域と前記追跡シーケンスセットにおける各頭肩領域との類似度を計算するステップを含み、
Figure 0007270617000001
本発明の例示的な実施例において、前記類似度に応じて前記追跡シーケンスセットを更新するステップは、
前記類似度及び類似度の閾値に応じて、前記現在のフレームの画像における各頭肩領域と前記追跡シーケンスセットにおける各頭肩領域とをそれぞれマッチングするステップと、
マッチングに成功した場合、前記追跡シーケンスセットにおける頭肩領域を、前記現在のフレームの画像におけるマッチングに成功した頭肩領域で対応的に置き換えるステップと、
マッチングに失敗した場合、前記現在のフレームの画像におけるマッチングに失敗した頭肩領域を前記追跡シーケンスセットに追加するステップと、を含む。
本発明の例示的な実施例において、前記追跡シーケンスセットにおける頭肩領域を、前記現在のフレームの画像におけるマッチングに成功した頭肩領域で対応的に置き換えるステップは、
前記現在のフレームの画像におけるマッチングに成功した頭肩領域及び対応する前記追跡シーケンスセットにおける頭肩領域の信頼度をそれぞれ計算するステップと、
前記現在のフレームの画像におけるマッチングに成功した頭肩領域の信頼度が、対応する前記追跡シーケンスセットにおける頭肩領域の信頼度よりも大きい場合、前記追跡シーケンスセットにおける頭肩領域を、前記現在のフレームの画像におけるマッチングに成功した頭肩領域で対応的に置き換えるステップと、を含む。
本発明の例示的な実施例において、前記信頼度の計算式は、
Figure 0007270617000002
本発明の例示的な実施例において、前記歩行者をカウントするように前記追跡シーケンスセットにおける各頭肩領域の移動軌跡を分析する前に、前記方法は、
前記追跡シーケンスセットには、第1の予め設けられたフレーム数の画像において各フレームの画像から取得された頭肩領域により更新されない追跡状態にある頭肩領域がある場合、第1の予め設けられたフレーム数の画像において各フレームの画像から取得された頭肩領域により更新されない頭肩領域を追跡状態から異常状態に変更するステップと、
前記追跡シーケンスセットには、第2の予め設けられたフレーム数の画像において各フレームの画像から取得された頭肩領域により更新されない異常状態にある頭肩領域がある場合、追跡シーケンスセットにおいて、第2の予め設けられたフレーム数の画像において各フレームの画像から取得された頭肩領域により更新されない異常状態にある頭肩領域を削除するステップと、をさらに含む。
本発明の例示的な実施例において、前記歩行者をカウントするように前記追跡シーケンスセットにおける各頭肩領域の移動軌跡を分析するステップは、
前記追跡シーケンスセットにおける各頭肩領域の移動軌跡を分析するステップと、
各頭肩領域の移動軌跡に応じて、仮想カウントラインを組み合わせて歩行者をカウントするステップと、を含む。
本発明の例示的な実施例において、前記方法は、前記性別年齢認識モデルを構築するステップをさらに含み、
前記性別年齢認識モデルを構築するステップは、
LFWデータセット及びソーシャルネットワーキングサイトにおいて性別及び年齢範囲がマークアップされた第3のトレーニングサンプルセットを取得するステップと、
前記第3のトレーニングサンプルセットにより性別年齢ネットワークをトレーニングして、前記性別年齢認識モデルを得り、ここで、前記性別年齢ネットワークが3つの畳み込み層及び3つの全結合層を含むステップと、を含む。
本発明の一態様によれば、歩行者流量ファネル生成装置を提供し、前記装置は、
現在のフレームの画像を取得し、多目標追跡アルゴリズムにより前記現在のフレームの画像において追跡シーケンスセットにおける頭肩領域を追跡及び更新するように構成される追跡更新モジュールと、
頭肩認識モデルに応じて前記現在のフレームの画像における頭肩領域を取得し、前記現在のフレームの画像における頭肩領域に応じて前記追跡シーケンスセットを更新するように構成される検出更新モジュールと、
前記歩行者をカウントするように前記追跡シーケンスセットにおける各頭肩領域の移動軌跡を分析し、前記現在のフレームの画像が最後のフレームの画像である場合、前記歩行者のカウント結果に基づいて歩行者流量ファネルを生成するように構成される技術生成モジュールと、を含む。
本発明の一態様によれば、プロセッサにより実行される場合、上記のいずれか1項に記載の歩行者流量ファネル生成方法を実現するプログラムを提供する。
本発明の一態様によれば、上記のプログラムが記録されたコンピュータ読み取り可能な記録媒体を提供する。
本発明の一態様によれば、電子機器を提供し、前記電子機器は、
プロセッサと、
前記プロセッサにより実行可能な命令を記憶するためのメモリと、を含み、
前記プロセッサは、前記実行可能な命令を実行することにより上記のいずれか1項に記載の歩行者流量ファネル生成方法を実行するように構成される。
本発明の例示的な実施例に提供された歩行者流量ファネル生成方法及び装置、プログラム、記憶媒体、電子機器によれば、まず、現在のフレームの画像を取得し、多目標追跡アルゴリズムにより前記現在のフレームの画像において追跡シーケンスセットにおける頭肩領域を追跡及び更新し、そして、頭肩認識モデルに応じて前記現在のフレームの画像における頭肩領域を取得し、前記現在のフレームの画像における頭肩領域に応じて前記追跡シーケンスセットを更新し、最後に、前記歩行者をカウントするように前記追跡シーケンスセットにおける各頭肩領域の移動軌跡を分析し、前記現在のフレームの画像が最後のフレームの画像である場合、前記歩行者のカウント結果に基づいて歩行者流量ファネルを生成する。多目標追跡アルゴリズムと頭肩認識モデルとを組み合わせることにより、頭肩領域の検出漏れを回避し、頭肩領域の検出正確率を向上させ、さらに歩行者のカウント正確率を向上させ、これにより、歩行者流量ファネルの正確率を向上させることができる。一方、頭肩認識モデルにより頭肩領域を迅速に取得することができ、しかもコストも低いので、頭肩領域のカウント速度を高めると共に、カウントのコストを削減し、これにより、歩行者流量ファネルの生成速度を高めると共に、歩行者流量ファネルの生成のコストを削減することができる。
なお、前記一般的な記載及び後述の詳細な記載は、単なる例示的で解釈的な記載であり、本発明を限定しない。
図面を参照して例示的な実施例を詳細に説明し、本発明の上記の内容、他の特徴及び利点は、より明らかになる。なお、以下の記載における図面はただ本発明の一部の実施例に過ぎず、当業者の場合、創造的な労働を付与しない前提で、これらの図面によって他の図面を得ることができる。
図1は、本発明に係る歩行者流量ファネル生成方法を示すフローチャートである。 図2は、本発明に係る一例示的な実施例に係るマスクレイアウトの模式図である。 図3は、本発明に係る歩行者流量ファネル生成方法を示すブロック図である。 図4は、本発明に係る一例示的な実施例における電子機器のモジュールを示す模式図である。 図5は、本発明に係る一例示的な実施例におけるプログラム製品を示す模式図である。
次に、図面を参照しながら、例示的な実施例をより全面的に説明する。しかしながら、例示的な実施例は、様々な形態で実施することができ、ここに記述の実施例に限定されると理解されるべきではない。逆に、これらの実施例が提供されることにより、本発明が全面且つ完全になり、例示的な実施例の構想を当業者に全面的に伝えることができる。図面において、同一の符号は、同一又は類似の構成を示すので、その詳細な説明は省略する。
なお、説明された特徴、構造または特性は、1つのまたは複数の実施例に任意の適切な方法で組み合わせることができる。以下の説明では、本発明の実施例を十分に理解するために、多くの具体的な詳細を述べる。しかしながら、当業者は、本発明の技術案が特定の詳細の1つまたは複数を使用しなく実施できること、または、他の方法、構成要素、材料、装置、ステップなどが採用できることを理解するべきである。他の場合では、本発明の各局面を不明瞭にすることを避けるために、周知の構造、方法、装置、実現、材料、または操作を詳細に図示または説明しない。
図面に示されたブロック図は、単に機能エンティティであり、必ずしも物理的に独立のエンティティに対応する必要はない。即ち、ソフトウェアを採用してこれらの機能エンティティを実現してもよく、または、1つまたは複数のソフトウェアが硬化したモジュールではこれらの機能エンティティまたは機能エンティティの一部を実現してもよく、または、異なるネットワーク及び/又はプロセッサ装置及び/又はマイクロコントローラ装置ではこれらの機能エンティティを実現してもよい。
関連するビデオ監視技術において、人流量の統計は、主に監視人員による手動カウントによって実現される。このような人流量を手動で統計する方法は、監視時間が短く人流量が少ない場合に信頼性が高いが、人の目の生物学的特性の制限により、監視時間が長く人流量が密集している場合に統計の正確性が大幅に低下し(即ち、検出漏れが生じる)、また、手動による統計方法は、多くの人件費が必要になる。これを基にして、人流量の性別及び年齢を統計しようとする場合、統計の効率及び正確率をさらに低減すると共に、コストも増加する。また、人流量と性別及び年齢の統計の正確率が低いので、人流量、性別、年齢の不正確な統計データに基づいて得られた流量ファネルの正確率も高くなくなり、これにより、統計人員は、この流量ファネルによりさらに正確な分析データを取得することができない。
本例示的な実施例において、まず、歩行者流量ファネル生成方法を開示しており、図1を参照すると、前記歩行者流量ファネル生成方法は、以下のステップを含んでもよい。
ステップS1において、現在のフレームの画像を取得し、多目標追跡アルゴリズムにより前記現在のフレームの画像において追跡シーケンスセットにおける頭肩領域を追跡及び更新する。
ステップS2において、頭肩認識モデルに応じて前記現在のフレームの画像における頭肩領域を取得し、前記現在のフレームの画像における頭肩領域に応じて前記追跡シーケンスセットを更新する。
ステップS3において、前記歩行者をカウントするように前記追跡シーケンスセットにおける各頭肩領域の移動軌跡を分析し、前記現在のフレームの画像が最後のフレームの画像である場合、前記歩行者のカウント結果に基づいて歩行者流量ファネルを生成する。
本例示的な実施例に係る歩行者流量ファネル生成方法によれば、多目標追跡アルゴリズムと頭肩認識モデルとを組み合わせることにより、頭肩領域の検出漏れを回避し、頭肩領域の検出の正確率を向上させ、さらに、歩行者のカウント正確率を向上させ、これにより、歩行者流量ファネルの正確率を向上させる。一方、頭肩認識モデルにより頭肩領域を迅速に取得することができ、且つ、コストも低いので、頭肩領域のカウント速度を高めると共に、カウントのコストを削減し、これにより、歩行者流量ファネルの生成速度を高めると共に、歩行者流量ファネルの生成のコストを削減することができる。
以下、図1を参照しつつ本例示的な実施例における歩行者流量ファネル生成方法をさらに説明する。
ステップS1において、現在のフレームの画像を取得し、多目標追跡アルゴリズムにより前記現在のフレームの画像において追跡シーケンスセットにおける頭肩領域を追跡及び更新する。
本例示的な実施例において、前記現在のフレームの画像を取得する前に、前記方法は、第1のフレームの画像を取得し、且つ、前記頭肩認識モデルに応じて前記第1のフレームの画像における頭肩領域を取得し、前記頭肩領域により前記追跡シーケンスセットの初期化を行うステップをさらに含んでよい。本例示的な実施例において、監視機器から伝送されるビデオ資料をリアルタイムで受信し、且つ、ビデオ資料から第1のフレームの画像を切り出してもよい。例えば、ショッピングモールの営業時間中の人流量と性別及び年齢範囲を統計する場合、ショッピングモールの営業開始時間の画像を第1のフレームの画像として取得してもよい、例えば、8時から画像を取得する。第1のフレームの画像を取得した場合、頭肩認識モデルに応じて第1のフレームの画像における頭肩領域を認識し、頭肩領域を認識した後、認識された頭肩領域に応じて追跡シーケンスセットの初期化を行い、即ち、認識された頭肩領域を追跡シーケンスセットに追加する。なお、頭肩認識モデルにより第1のフレームの画像における頭肩領域を認識する場合、頭肩認識モデルにより、各頭肩領域のスコア値、即ち各頭肩領域のカテゴリ帰属確率を計算してもよい。
本例示的な実施例において、畳み込みニューラルネットワークに応じて前記頭肩認識モデルを生成することができ、具体的には、畳み込みニューラルネットワークに応じて前記頭肩認識モデルを生成するステップは、以下のステップを含む。
ステップS111において、ImageNet分類データセットに応じてMobileNetネットワークをトレーニングして、前記MobileNetネットワークの重み値を得る。
本例示的な実施例において、前記ImageNetは、現在、世界で画像認識が最大であるデータベースである。前記MobileNetネットワークは、流線型のアーキテクチャを基にして、深度分離可能な畳み込みを使用する軽量なディープニューラルネットワークであり、標準な畳み込みを深度畳み込みと点畳み込みに分解することができ、即ち、各畳み込みカーネルを各チャネルに適用し、1×1畳み込みは、チャネル畳み込みの出力を合わせるためのものである。このような分解により、計算量を効果的に低減し、モデルのサイズを削減し、ネットワーク性能をより良好にすると共に、速度も非常に速くなることが証明された。ステップS11において、ImageNet分類データセットにおける頭肩領域をマークアップした各画像をMobileNetネットワークに入力して、MobileNetネットワークの重み値を得ることができる。
ステップS112において、前記MobileNetネットワークに予め設けられた層数の畳み込み層を追加して、頭肩検出ネットワークを得り、ここで、前記畳み込み層のサイズが層ごとに小さくする。
本例示的な実施例において、前記予め設けられた層数は、具体的な要求に応じて設定されてもよく、例えば、3層であってもよいし、6層であってもよく、本例示的な実施例は、これを特に限定しない。前記畳み込み層のサイズが層ごとに小さくすることにより、サイズが層ごとに小さくなる畳み込み層により頭肩領域に対する多次元の予測を完成する。
ステップS113において、前記頭肩領域がマークアップされた第2のトレーニングサンプルセットを取得し、前記第2のトレーニングサンプルセットに応じて前記MobileNetネットワークの重み値を保持する前記頭肩検出ネットワークをトレーニングして、前記頭肩認識モデルを得る。
本例示的な実施例において、頭肩認識モデルによる頭肩領域の認識正確率を向上させるように第2のトレーニングサンプルセットの多様性を確保するために、画像取得モジュールにより異なる角度及び異なる背景(枝によって遮られたり、建物によって遮られたりする背景)における頭肩画像を取得すると共に、各頭肩画像における頭肩領域に対してマークアップを行うことにより、頭肩領域がマークアップされた第2のトレーニングサンプルセットを得ることができる。第2のトレーニングサンプルセットに基づいて、転移率学習の方法を利用して前記MobileNetネットワークの重み値を保持する前記頭肩検出ネットワークをトレーニングして、頭肩認識モデルを得る。具体的には、第2のトレーニングサンプルセットにおける頭肩領域がマークアップされた画像を頭肩検出ネットワークに入力して、頭肩検出ネットワークにおける重み値を取得し、頭肩検出ネットワークの損失が基本的に安定して低下せず且つ平均値が0.8である場合、この頭肩検出ネットワークは、頭肩認識モデルである。
本例示的な実施例において、ステップS1における追跡シーケンスセットは、現在のフレームの画像の直前のフレームの画像において更新された追跡シーケンスセットである。なお、現在のフレームの画像の直前のフレームの画像が第1のフレームの画像である場合、この時の追跡シーケンスセットは、第1のフレームの画像において初期化された追跡シーケンスセットである。
ステップS1において、前記多目標追跡アルゴリズムにより前記現在のフレームの画像において追跡シーケンスセットにおける頭肩領域を追跡及び更新するステップは、カーネル相関フィルタに基づく追跡アルゴリズムにより、前記現在のフレームの画像において前記追跡シーケンスセットにおける頭肩領域をそれぞれ追跡及び更新するステップを含んでもよい。具体的には、前記カーネル相関フィルタに基づく追跡アルゴリズムにより、前記現在のフレームの画像において前記追跡シーケンスセットにおける頭肩領域をそれぞれ追跡及び更新するステップは、以下のステップを含んでもよい。
ステップS121において、前記追跡シーケンスセットにおける各頭肩領域の直前のフレームの画像での位置に基づいて、前記現在のフレームの画像において前記追跡シーケンスセットにおける各頭肩領域に対応する候補追跡目標をそれぞれ取得する。
本例示的な実施例において、追跡シーケンスセットにおける各頭肩領域に対応する候補追跡目標を順次に取得することができ、ここで、各頭肩領域に対応する候補追跡目標が複数であってもよい。以下、追跡シーケンスセットにおける第1の頭肩領域に対応する候補追跡目標を取得する場合を例として説明する。現在のフレームの画像において第1の頭肩領域の直前のフレームの画像での位置を中心として、予め設けられた範囲において複数の候補追跡目標を取得し、この複数の候補追跡目標は、第1の頭肩領域に対応する候補追跡目標であり、前記予め設けられた範囲は、開発元により設定されてもよい。追跡シーケンスセットにおける他の頭肩領域に対応する候補追跡目標を取得する場合に、その取得原則は、第1の頭肩領域に対応する候補追跡目標を取得するものと同一であり、取得する位置のみが変更されるので、ここでは詳細な説明を省略する。
ステップ122において、各前記頭肩領域に対応するトラッカーに応じて、対応的に各前記頭肩領域に対応する候補追跡目標の応答値をそれぞれ計算する。
本例示的な実施例において、まず、各前記頭肩領域に対応するトラッカーを計算する過程を説明する。各前記頭肩領域に対応するトラッカーを計算するステップは、前記追跡シーケンスセットにおける各頭肩領域の前記直前のフレームの画像での位置に基づいて、前記直前のフレームの画像において前記追跡シーケンスセットにおける各頭肩領域に対応する第1のトレーニングサンプルセットをそれぞれ取得するステップと、各前記頭肩領域に対応する第1のトレーニングサンプルセットに応じて回帰モデルをそれぞれトレーニングして、各前記頭肩領域に対応するトラッカーを得るステップと、を含んでもよい。
本例示的な実施例において、追跡シーケンスセットにおける第1の頭肩領域に対応するトラッカーを計算する場合を例として説明する。直前のフレームの画像において第1の頭肩領域の直前のフレームの画像での位置を中心として、複数の第1のトレーニングサンプルを取得し、第1の頭肩領域に対応する第1のトレーニングサンプルセットを構成し、第1のトレーニングサンプルセットにおけるすべての第1のトレーニングサンプルを回帰モデルに入力して、回帰モデルをトレーニングし、このトレーニングされた回帰モデルを第1の頭肩領域に対応するトラッカーとして確定する。追跡シーケンスセットにおける他の頭肩領域に対応するトラッカーを計算する過程は、上記の第1の頭肩領域に対応するトラッカーを計算するものと同一であり、第1のトレーニングサンプルセットを取得する位置のみが異なるので、ここでは詳細な説明を省略する。
以上から分かるように、頭肩領域に対応するトラッカーを計算する場合、頭肩領域の直前のフレームの画像での位置に基づいて、直前のフレームの画像において頭肩領域に対応する第1のトレーニングサンプルセットを取得し、また、異なるフレームの画像において同一の頭肩領域の位置が異なるので、異なるフレームの画像における同一の頭肩領域に対応するトラッカーは、異なる。このことから、各フレームに対応するトラッカーにより計算された応答値がより正確であるため、追跡目標の追跡及び確定がより正確になる。
このことから、第1の頭肩領域に対応するトラッカーに応じて第1の頭肩領域に対応する候補追跡目標の応答値を計算する場合を例として説明し、それぞれ第1の頭肩領域に対応する各候補追跡目標を第1の頭肩領域に対応するトラッカーに代入して、第1の頭肩領域に対応する候補追跡目標の応答値を得る。追跡シーケンスセットにおける他の頭肩領域に対応する候補追跡目標の応答値を計算する過程は、上記の第1の頭肩領域に対応する候補追跡目標の応答値を計算するものと同一であり、トラッカーのみが変更され、即ち、トラッカーが頭肩領域に対応し、したがって、ここでは詳細な説明を省略する。
ステップ123において、各前記頭肩領域に対応する候補追跡目標における最大応答値を持つ候補追跡目標を、対応する頭肩領域の前記現在のフレームの画像での追跡目標として確定する。
本例示的な実施例において、追跡シーケンスセットにおける第1の頭肩領域を例として説明し、それぞれ第1の頭肩領域に対応する各候補追跡目標の応答値を比較し、最大応答値を持つ候補追跡目標を第1の頭肩領域の現在のフレームの画像での追跡目標として確定し、即ち、この候補追跡目標は、現在のフレームの画像における第1の頭肩領域である。なお、追跡シーケンスセットにおける他の頭肩領域の現在のフレームの画像での追跡目標の確定方式は、上記の第1の頭肩領域の現在のフレームの画像での追跡目標の確定方式と同一であるので、ここでは詳細な説明を省略する。
ステップ124において、各前記頭肩領域の前記現在のフレームの画像での追跡目標に応じて、対応的に前記追跡シーケンスセットにおける各頭肩領域を更新する。
本例示的な実施例において、追跡シーケンスセットにおける各頭肩領域を、現在のフレームの画像における、追跡シーケンスセットにおける各頭肩領域に対応する追跡目標で対応的に置き換えて、追跡シーケンスセットにおける各頭肩領域を更新する。
上記のように、頭肩領域が広い背景から枝などの遮蔽物により遮蔽された背景に入ると、頭肩認識モデルにより遮蔽物がある背景画像において当該頭肩領域を検出できない可能性がある。このことから、頭肩認識モデルのみにより現在のフレームにおける頭肩領域に対して検出を行って、追跡シーケンスセットにおける頭肩領域を追跡することを実現する場合、追跡シーケンスにおける頭肩領域を検出できない可能性があるので、頭肩領域の検出漏れを招く。しかしながら、本例示的な実施例において、多目標追跡アルゴリズムにより追跡シーケンスセットにおけるすべての頭肩領域を追跡することにより、頭肩領域の検出漏れを回避し、頭肩領域の検出正確率を向上させ、さらに歩行者のカウント正確率を向上させ、これにより、歩行者流量ファネルの正確率を向上させることができる。
ステップS2において、頭肩認識モデルに応じて前記現在のフレームの画像における頭肩領域を取得し、前記現在のフレームの画像における頭肩領域に応じて前記追跡シーケンスセットを更新する。
本例示的な実施例において、現在のフレームの画像を頭肩認識モデルに入力して、現在のフレームの画像における頭肩領域を取得し、前記現在のフレームの画像における頭肩領域に応じて前記追跡シーケンスセットを更新し、即ち、新たな頭肩領域を追跡シーケンスセットに追加すると共に、追跡シーケンスにおける元の頭肩領域を更新する。頭肩認識モデルにより頭肩領域を迅速に取得でき、しかもコストも低いので、頭肩領域のカウント速度を高めると共に、カウントのコストを削減し、これにより、歩行者流量ファネルの生成速度を高めると共に、歩行者流量ファネルの生成のコストを削減することができる。
前記現在のフレームの画像における頭肩領域に応じて前記追跡シーケンスセットを更新するステップは、前記現在のフレームの画像における各頭肩領域と前記追跡シーケンスセットにおける各頭肩領域との類似度を計算するステップと、前記類似度に応じて前記追跡シーケンスセットを更新するステップと、を含んでもよい。
前記現在のフレームの画像における各頭肩領域と前記追跡シーケンスセットにおける各頭肩領域との類似度を計算するステップは、次の式により、前記現在のフレームの画像における各頭肩領域と前記追跡シーケンスセットにおける各頭肩領域との類似度を計算するステップを含んでもよい。
Figure 0007270617000003
現在のフレームの画像における第1の頭肩領域と追跡シーケンスセットにおける各頭肩領域との類似度をそれぞれ計算する場合を例として説明し、現在のフレームの画像における第1の頭肩領域の面積及び追跡シーケンスセットにおける各頭肩領域の面積を取得し、上記の式を組み合わせて、現在のフレームの画像における第1の頭肩領域と追跡シーケンスセットにおける各頭肩領域との類似度を計算する。なお、上記のステップを繰り返すことにより現在のフレームの画像における他の頭肩領域と追跡シーケンスセットにおける各頭肩領域との類似度をそれぞれ計算することができる。
前記類似度に応じて前記追跡シーケンスセットを更新するステップは、以下のステップを含んでもよい。
ステップS21において、前記類似度及び類似度の閾値に応じて、前記現在のフレームの画像における各頭肩領域と前記追跡シーケンスセットにおける各頭肩領域とをそれぞれマッチングする。
本例示的な実施例において、前記類似度の閾値は、0.5であってもよいが、本例示的な実施例は、これを特に限定しない。以下、現在のフレームの画像における第1の頭肩領域をマッチングする過程を説明する。まず、第1の頭肩領域と追跡シーケンスセットにおける各頭肩領域との最大の類似度を取得すると共に、当該最大の類似度が類似度の閾値よりも大きいか否かを判断し、当該最大の類似度が類似度の閾値よりも大きいと判断する場合、マッチングが成功すると考えられ、即ち、第1の頭肩領域は、対応する追跡シーケンスセットにおける頭肩領域と同一の頭肩領域である。当該最大の類似度が類似度の閾値以下であると判断する場合、マッチングが失敗すると考えられ、即ち、当該頭肩領域は、新たな頭肩領域である。
ステップS22において、マッチングに成功した場合、前記追跡シーケンスセットにおける頭肩領域を、前記現在のフレームの画像におけるマッチングに成功した頭肩領域で対応的に置き換える。
本例示的な実施例において、現在のフレームの画像における第1の頭肩領域を例として説明し、第1の頭肩領域と追跡シーケンスセットにおける各頭肩領域との最大の類似度が類似度の閾値よりも大きい場合、追跡シーケンスセットにおける頭肩領域を当該第1の頭肩領域で対応的に置き換える。
マッチングの精度をさらに向上させるために、前記追跡シーケンスセットにおける頭肩領域を、前記現在のフレームの画像におけるマッチングに成功した頭肩領域で対応的に置き換えるステップは、前記現在のフレームの画像におけるマッチングに成功した頭肩領域及び対応する前記追跡シーケンスセットにおける頭肩領域の信頼度をそれぞれ計算するステップと、前記現在のフレームの画像におけるマッチングに成功した頭肩領域の信頼度が、対応する前記追跡シーケンスセットにおける頭肩領域の信頼度よりも大きい場合、前記追跡シーケンスセットにおける頭肩領域を、前記現在のフレームの画像におけるマッチングに成功した頭肩領域で対応的に置き換えるステップと、を含んでもよい。
本例示的な実施例において、前記信頼度の計算式は、
Figure 0007270617000004
現在のフレームの画像における第1の頭肩領域と追跡シーケンスセットにおける第3の頭肩領域とのマッチングに成功した場合を例として上記の過程を説明する。上記の信頼度の計算式により、現在のフレームの画像における第1の頭肩領域の信頼度及び追跡シーケンスセットにおける第3の頭肩領域の信頼度をそれぞれ計算する。現在のフレームの画像における第1の頭肩領域の信頼度が追跡シーケンスセットにおける第3の頭肩領域の信頼度よりも大きい場合、追跡シーケンスセットにおける第3の頭肩領域を、現在のフレームの画像における第1の頭肩領域で置き換える。
ステップS23において、マッチングに失敗した場合、前記現在のフレームの画像におけるマッチングに失敗した頭肩領域を前記追跡シーケンスセットに追加する。
本例示的な実施例において、現在のフレームの画像における第1の頭肩領域を例として説明し、第1の頭肩領域と追跡シーケンスセットにおける各頭肩領域との最大の類似度が類似度の閾値以下である場合、当該第1の頭肩領域を追跡シーケンスセットに追加して新たな追跡目標となる。
以上から分かるように、肩認識モデルにより現在のフレームの画像における頭肩領域を取得し、前記現在のフレームの画像における各頭肩領域と前記追跡シーケンスセットにおける各頭肩領域との類似度を計算し、且つ、前記類似度に応じて前記追跡シーケンスセットを更新することにより、検出された新たな頭肩領域を追跡シーケンスセットに追加すると共に、追跡シーケンスセットにおける元の頭肩領域を更新し、これにより、頭肩領域の検出正確率を高め、カウント正確率を向上させ、追跡目標の検出漏れを回避し、さらに歩行者流量ファネルの正確率を向上させることができる。
ステップS3において、前記歩行者をカウントするように前記追跡シーケンスセットにおける各頭肩領域の移動軌跡を分析し、前記現在のフレームの画像が最後のフレームの画像である場合、前記歩行者のカウント結果に基づいて歩行者流量ファネルを生成する。
本例示的な実施例において、追跡目標の正確率を高めてさらに歩行者のカウント正確率を向上させるために、前記歩行者をカウントするように前記追跡シーケンスセットにおける各頭肩領域の移動軌跡を分析する前に、前記方法は、以下のステップをさらに含んでもよい。
ステップS31において、前記追跡シーケンスセットには、第1の予め設けられたフレーム数の画像において各フレームの画像から取得された頭肩領域により更新されない追跡状態にある頭肩領域がある場合、第1の予め設けられたフレーム数の画像において各フレームの画像から取得された頭肩領域により更新されない頭肩領域を追跡状態から異常状態に変更する。
本例示的な実施例において、前記第1の予め設けられたフレーム数の画像は、連続する5フレームの画像又は連続する10フレームの画像であってもよく、本例示的な実施例は、これを特に限定しない。連続する5フレームの画像を例としてステップS31を説明し、頭肩認識モデルに応じて上記の5フレームの画像に対応する頭肩領域をそれぞれ取得し、上記の5フレームの画像に対応する頭肩領域のいずれにも追跡シーケンスセットにおける1つの追跡状態にある頭肩領域とのマッチングに成功した頭肩領域がない場合、当該頭肩領域が異常な頭肩領域であると判定し、当該頭肩領域を追跡状態から異常状態に変更する。
ステップS32において、前記追跡シーケンスセットには、第2の予め設けられたフレーム数の画像においていずれもマッチングに成功しない異常状態にある頭肩領域がある場合、前記追跡シーケンスセットにおいて、第2の予め設けられたフレーム数の画像においていずれもマッチングに成功しない異常状態にある頭肩領域を削除する。
本例示的な実施例において、前記第2の予め設けられたフレーム数の画像は、連続する5フレームの画像又は連続する10フレームの画像であってもよく、本例示的な実施例は、これを特に限定しない。連続する5フレームの画像を例としてステップS32を説明し、頭肩認識モデルに応じて上記の5フレームの画像に対応する頭肩領域をそれぞれ取得し、上記の5フレームの画像に対応する頭肩領域のいずれにも追跡シーケンスセットにおける1つの異常状態にある頭肩領域とのマッチングに成功した頭肩領域がない場合、当該頭肩領域が誤検出されるものであると判定し、追跡シーケンスセットから当該頭肩領域を削除する。
ステップS3において、前記歩行者をカウントするように前記追跡シーケンスセットにおける各頭肩領域の移動軌跡を分析するステップは、前記追跡シーケンスセットにおける各頭肩領域の移動軌跡を分析するステップと、各頭肩領域の移動軌跡に応じて、仮想カウントラインを組み合わせて歩行者をカウントするステップと、を含んでもよい。
本例示的な実施例において、追跡シーケンスセットにおける各頭肩領域の異なるフレームの画像での位置に応じて、各頭肩領域の移動軌跡を生成することができる。本例示的な実施例において、カウントを容易にするために、仮想カウントラインを設定し、頭肩領域の移動軌跡が当該仮想カウントラインに跨るか否か、及び仮想カウントラインに跨る方向を判断することにより、異なる方向の歩行者をカウントしてもよい。具体的には、頭肩領域の移動軌跡が当該仮想カウントラインに跨るか否か、及び仮想カウントラインに跨る方向を判断することにより異なる方向の歩行者をカウントするステップは、以下のステップを含み、即ち、マスクレイアウト(MASK)で仮想カウントラインの両側の領域、例えば第1の領域、第2の領域を示し(図2に示すように)、これを基にして、各頭肩領域の移動軌跡の画素値に応じて、各頭肩領域が第1の領域から第2の領域に跨ったか否かを判断し、又は、各頭肩領域が第2の領域から第1の領域に跨ったか否かを判断することができる。
例えば、第1の領域がセルの内側であり、第2の領域がセルの外側であり、頭肩領域が第1の領域から第2の領域に跨った場合、セルから出る人数は、1を加算し、頭肩領域が第2の領域から第1の領域に跨った場合、セルに入る人数は、1を加算する。
なお、二重カウントを防ぐために、カウントされた頭肩領域に対してマークアップを行ってもよい。以上から分かるように、各前記頭肩領域の移動軌跡及び仮想カウントラインに応じて前記歩行者をカウントし、カウント方法が簡単であり、その実現が容易になり、カウント正確率が高い。
各頭肩領域の移動軌跡に応じて歩行者をカウントした後、現在のフレームの画像が最後のフレームの画像であるか否かを判断し、現在のフレームの画像が最後のフレームの画像でない場合、ステップS2及びステップS3を繰り返して、歩行者を継続的にカウントする。現在のフレームの画像が最後のフレームの画像である場合、前記歩行者のカウント結果に基づいて歩行者流量ファネルを生成する。例えば、異なる期間における人流量を分析して歩行者流量ファネルを生成することにより、作業者は、この歩行者流量ファネルに応じてサービスフローの問題などを分析して、マクロデータを把握することができる。
作業者がこの歩行者流量ファネルに応じて多次元からサービスフローの問題などを分析してマクロデータを把握できるように、歩行者流量ファネルがより多くの次元のデータをカバーできるために、前記方法は、性別年齢認識モデルに応じて前記追跡シーケンスセットにおける各頭肩領域の年齢範囲及び性別を認識するステップと、前記歩行者のカウント結果に基づいて、前記追跡シーケンスセットにおける各頭肩領域の年齢範囲及び性別を組み合わせて前記歩行者流量ファネルを生成するステップと、をさらに含む。
本例示的な実施例において、まず、前記性別年齢認識モデルを構築する過程を説明し、ここで、前記性別年齢認識モデルを構築するステップは、LFWデータセット及びソーシャルネットワーキングサイトにおいて性別及び年齢範囲がマークアップされた第3のトレーニングサンプルセットを取得するステップと、前記第3のトレーニングサンプルセットにより性別年齢ネットワークをトレーニングして、前記性別年齢認識モデルを得り、前記性別年齢ネットワークが3つの畳み込み層及び3つの全結合層を含むステップと、を含んでもよい。
本例示的な実施例において、3つの畳み込み層及び3つの全結合層を含む性別年齢ネットワークを確立し、LFWデータセット及びソーシャルプラットフォームにおいて第3のトレーニングサンプルセットを取得し、且つ、第3のトレーニングサンプルセットにおける各第3のトレーニングサンプルの人の顔を中心として裁断を行い、例えば、人の顔を中心として256*256のサイズの第3のトレーニングサンプルを227*227のサイズの第3のトレーニングサンプルに裁断し、裁断されたトレーニングサンプルに対して性別及び年齢範囲をマークアップし、ここで、性別を男性又は女性でマークアップし、年齢範囲に応じて年齢をマークアップし、例えば、年齢範囲を、0~3、4~7、8~14、15~24、25~37、38~47、48~59、60+の8段階に分けてマークアップすることができる。なお、年齢範囲の分け方式は、これに限定されなく、必要に応じて開発元によって設定されてもよく、標準偏差が0.01で平均値が0である正太ガウス分布により性別年齢ネットワークにおける重み値の初期化を行い、確率的勾配降下法とドロップアウトのとを組み合わせて前記初期化された性別年齢ネットワークをトレーニングすることにより、性別年齢認識モデルを得る。ここで、ドロップアウトの比率は、0.5を採用する。
当該性別年齢認識モデルに基づいて各追跡シーケンスセットにおける各頭肩領域の年齢範囲及び性別を認識する。なお、追跡シーケンスセットに1回目に追加された頭肩領域の年齢範囲及び性別のみを認識すればよい。また、年齢範囲及び性別の認識が同一の性別年齢認識モデルを採用するので、年齢を認識する場合、性別年齢認識モデルの出力は、2であり、性別を認識する場合、性別年齢認識モデルの出力は、8である。
これを基にして、頭肩領域の性別及び年齢を認識した後、前記歩行者のカウント結果に基づいて、前記追跡シーケンスセットにおける各頭肩領域の年齢範囲及び性別を組み合わせて前記歩行者流量ファネルを生成する。例えば、異なる期間における人流量、性別の割合及び年齢の割合を分析して歩行者流量ファネルを得ることにより、作業者は、この歩行者流量ファネルに応じて多次元からサービスフローの問題などを分析してマクロデータを把握することができる。
なお、図面において所定の順序で本発明における方法の各ステップを説明するが、当該所定の順序でこれらのステップを実行しなければならないこと、又は、期待の結果を実現するために図示される全てのステップを実行しなければならないことを要求又は暗示することではない。それ以外にも、あるステップを省略したり、複数のステップを組み合わせて1つのステップにして実行したり、及び/又は、1つのステップを複数のステップに分解して実行したりなどしてもよい。
本発明の例示的な実施例において、歩行者流量ファネル生成装置をさらに提供し、図3に示すように、前記歩行者流量ファネルを生成する装置100は、追跡更新モジュール101と、検出更新モジュール102と、技術生成モジュール103と、を含んでもよい。ここで、
追跡更新モジュール101は、現在のフレームの画像を取得し、多目標追跡アルゴリズムにより前記現在のフレームの画像において追跡シーケンスセットにおける頭肩領域を追跡及び更新するように構成される。
検出更新モジュール102は、頭肩認識モデルに応じて前記現在のフレームの画像における頭肩領域を取得し、前記現在のフレームの画像における頭肩領域に応じて前記追跡シーケンスセットを更新するように構成される。
技術生成モジュール103は、前記歩行者をカウントするように前記追跡シーケンスセットにおける各頭肩領域の移動軌跡を分析し、前記現在のフレームの画像が最後のフレームの画像である場合、前記歩行者のカウント結果に基づいて歩行者流量ファネルを生成するように構成される。
上記の歩行者流量ファネル生成装置の各モジュールの具体的な細部は、既に対応する歩行者流量ファネル生成方法において詳細に説明したので、ここでは詳細な説明を省略する。
なお、以上の詳細な説明では、実行するための機器のいくつかのモジュール又はユニットを説明したが、このような区分は、強制的なものではない。実際には、本発明の実施例によれば、上述した2つ以上のモジュール又はユニットの特徴及び機能は、1つのモジュール又はユニットで具体化されてもよい。逆に、上述した1つのモジュール又はユニットの特徴及び機能は、複数のモジュール又はユニットによりさらに具体化されてもよい。
本発明の例示的な実施例において、上記の方法を実現できる電子機器をさらに提供する。
当業者は、本発明の各態様がシステム、方法又はプログラム製品として実現できることを理解すべきである。したがって、本発明の各態様は、以下の形式で実現でき、即ち、完全なハードウェア実施例、完全なソフトウェア実施例(ファームウェア、マイクロコード等を含み)、又は、ハードウェアとソフトウェアを結合する実施例であり、ここでは、「回路」、「モジュール」又は「システム」と総称してもよい。
以下、図4を参照して本発明のこのような実施例の電子機器600を説明する。図4に示される電子機器600は、単なる一例に過ぎず、本発明の実施例の機能及び使用範囲を限定するものではない。
図4に示すように、電子機器600は、汎用な計算機器の形式で表現される。電子機器600のコンポーネントは、少なくとも1つの処理ユニット610、少なくとも1つの記憶ユニット620、異なるシステムコンポーネント(記憶ユニット620と処理ユニット610を含み)に接続するバス630、表示ユニット640を含んでもよいが、これらに限定されない。
ここで、前記記憶ユニットには、プログラムコードが記憶され、前記プログラムコードは、前記処理ユニット610により実行されてもよく、これにより、前記処理ユニット610は、本明細書の上記の「例示的な方法」の部分に説明した本発明の様々な例示的な実施例のステップを実行する。例えば、前記処理ユニット610は、図1に示すような、現在のフレームの画像を取得し、多目標追跡アルゴリズムに応じて前記現在のフレームの画像において追跡シーケンスセットにおける頭肩領域を追跡及び更新するステップS1と、頭肩認識モデルに応じて前記現在のフレームの画像における頭肩領域を取得し、前記現在のフレームの画像における頭肩領域に応じて前記追跡シーケンスセットを更新するステップS2と、前記歩行者をカウントするように前記追跡シーケンスセットにおける各頭肩領域の移動軌跡を分析し、前記現在のフレームの画像が最後のフレームの画像である場合、前記歩行者のカウント結果に基づいて歩行者流量ファネルを生成するステップS3とを実行してもよい。
記憶ユニット620は、例えば、ランダムアクセス記憶ユニット(RAM)6201及び/又は高速キャッシュ記憶ユニット6202などの揮発性記憶ユニットの形態の読み取り可能な媒体を含んでもよく、読み取り専用の記憶ユニット(ROM)6203をさらに含んでもよい。
記憶ユニット620は、一組(少なくとも1つ)のプログラムモジュール6205を備えるプログラム/ユーティリティツール6204をさらに含んでもよく、このようなプログラムモジュール6205は、操作システム、1つ又は複数のアプリケーションプログラム、他のプログラムモジュール及びプログラムデータを含むが、これらに限定されなく、これらの例における各々又はその特定の組み合わせは、ネットワーク環境の実現を含んでもよい。
バス630は、いくつかの種類のバス構造のうちの1種又は複数種であってもよく、記憶ユニットバス又は記憶ユニットコントローラ、周辺バス、アクセラレーテッドグラフィックスポート、処理ユニット又は複数種のバス構造のうちの任意のバス構造を使用するローカルバスを含む。
電子機器600は、1つ又は複数の外部機器700(例えば、キーボード、指向機器、ブルートゥース(登録商標)機器等)と通信してもよく、ユーザと当該電子機器600とのインタラクションを可能にする1つ又は複数の機器と通信してもよく、及び/又は、当該電子機器600が1つ又は複数の他の計算機器と通信することを可能にする任意の機器(例えば、ルータ、モデム等)と通信してもよい。このような通信は、入力/出力(I/O)インターフェース650を介して行ってもよい。そして、電子機器600は、ネットワークアダプタ660を介して1つ又は複数のネットワーク(例えば、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)及び/又は共通のネットワーク、例えば、インターネット)と通信してもよい。図に示すように、ネットワークアダプタ660は、バス630を介して電子機器600の他のモジュールと通信する。なお、図には示されないが、他のハードウェア及び/又はソフトウェアモジュールを電子機器600と共に使用してもよく、上記の他のハードウェア及び/又はソフトウェアモジュールは、マイクロコード、機器ドライバ、冗長処理ユニット、外部ディスクドライブアレイ、RAIDシステム、テープドライバ及びデータバックアップ記憶システム等を含むが、これらに限定されない。
以上の実施例の説明によって、当業者は、本明細書に記載される例示的な実施例がソフトウェアにより実現されてもよいこと、ソフトウェアと必要なハードウェアを結合することにより実現されてもよいことを容易に理解することができる。したがって、本発明の実施例に係る技術案は、ソフトウェア製品の形態で体現されてもよく、当該ソフトウェア製品は、1つの不揮発性記憶媒体(CDーROM、USBデバイス、モバイルハードディスク等であってもよい)又はネットワークに記憶されてもよく、本発明の実施例に係る方法を計算機器(パーソナルコンピュータ、サーバ、端末装置又はネットワーク機器等であってもよい)に実行させるいくつかの指令を含む。
本発明の例示的な実施例において、本明細書における上記の方法を実現できるプログラム製品が記憶されるコンピュータ読み取り可能な記憶媒体をさらに提供する。いくつかの可能な実施例では、本発明の各態様は、プログラムコードを含むプログラム製品の形態で実現されてもよく、前記プログラム製品が端末機器で実行される場合、前記プログラムコードは、本明細書の上記の「例示的な方法」の部分に説明した本発明の様々な例示的な実施例のステップを前記端末機器に実行させる。
図5に示すように、本発明の実施例による上記の方法を実現するためのプログラム製品800は、コンパクトディスク読み取り専用メモリ(CDーROM)を使用し、プログラムコードを含み、端末機器(例えば、パーソナルコンピュータ)で実行されることができる。しかしながら、本発明のプログラム製品は、これに限定されない。本願において、読み取り可能な記憶媒体は、プログラムを含む又は記憶する任意の有形媒体であってもく、当該プログラムは、指令実行システム、装置又は部品により使用されてもよく、又は、それらに結合して使用されてもよい。
前記プログラム製品は、1つ又は複数の読み取り可能な媒体の任意の組み合わせを使用してもよい。読み取り可能な媒体は、読み取り可能な信号媒体又は読み取り可能な記憶媒体であってもよい。読み取り可能な記憶媒体は、例えば、電子、磁気、光、電磁、赤外線、又は半導体のシステム、装置又は部品、又は、上記の任意の組み合わせであってもよいが、これらに限定されない。読み取り可能な記憶媒体のより具体的な例(非網羅的リスト)は、1つ又は複数の導線を有する電気的接続、可搬型ディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去/プログラムが可能な読み取り専用のメモリ(EPROM又はフラッシュ)、光ファイバー、コンパクトディスク読み取り専用のメモリ(CDーROM)、光記憶デバイス、磁気記憶デバイス、又は、これらの任意の組み合わせを含む。
コンピュータ読み取り可能な信号媒体は、ベースバンドに含まれ又は搬送波の一部として伝播されるデータ信号を含んでもよく、その中で読み取り可能なプログラムコードを担持する。このような伝播されるデータ信号は、多くの形式を採用してもよく、電磁信号、光信号又は上記の任意の組み合わせを含むが、これらに限定されない。読み取り可能な信号媒体は、読み取り可能な記憶媒体以外の任意の読み取り可能な媒体であってもよく、当該読み取り可能な媒体は、指令実行システム、装置又は部品により使用され又はそれらと組み合わせて使用されるためのプログラムを送信、伝播又は転送することができる。
読み取り可能な媒体に含まれるプログラムコードは、任意の適切な媒体により転送されてもよく、無線、有線、光ケーブル、RF等、又は、上記の任意の適切な組み合わせを含むが、これらに限定されない。
本発明の動作を実行するためのプログラムコードは、1種又は複数種のプログラム言語の任意の組み合わせで書かれてもよく、前記プログラム言語は、Java(登録商標)、C++などのオブジェクト指向プログラム言語を含んでもよく、「C」言語又は類似のプログラム言語などの通常の手続型プログラム言語を含んでもよい。プログラムコードは、完全にユーザ計算機器で実行されたもよく、一部がユーザ計算機器で実行されてもよく、1つの独立のソフトウェアパッケージとして実行されてもよく、一部がユーザ計算機器で実行されてもよく、一部が遠隔計算機器で実行されてもよく、又は、完全に遠隔計算機器又はサーバで実行されてもよい。遠隔計算機器に係る場合、遠隔計算機器は、ローカルエリアネットワーク(LAN)又は広域ネットワーク(WAN)を含む任意の種類のネットワークを介して、ユーザの計算機器に接続されてもよく、又は、外部計算機器(例えば、インターネットサービスプロバイダによりインターネットを介して接続され)に接続されてもよい。
なお、上記の図面は、本発明の例示的な実施例の方法に含まれるプロセスの例示的な説明のみであり、限定することを意図するものではない。上記の図に示されたプロセスはこれらのプロセスの時間的な順序を明確に示したり、限定したりするものではないことを容易に理解されるであろう。また、これらのプロセスは、例えば複数のモジュールにおいて同期的又は非同期的に実行されてもよいことも容易に理解されるであろう。
当業者は、本明細書を考慮し、本明細書に開示された発明を実施した後、本発明の他の実施例を容易に想到できる。本願は、本発明の任意の変形、用途又は適応性の変更を含み、これらの変形、用途又は適応性の変更は、本発明の一般的な原理に従うと共に、本発明に開示されない当技術分野における公知な常識又はで慣用の技術手段を含む。明細書及び実施例は、例示的なものに過ぎず、本発明の真の範囲及び精神は、特許請求の範囲において指摘されている。
本発明は、以上説明され、且つ図面に示された正確な構成に限定されず、その範囲から逸脱することなく、様々な修正及び変更を行うことができることが理解すべきである。本発明の範囲は、添付の特許請求の範囲によってのみ限定される。

Claims (18)

  1. 現在のフレームの画像を取得し、多目標追跡アルゴリズムにより前記現在のフレームの画像において追跡シーケンスセットにおける頭肩領域を追跡及び更新するステップと、
    頭肩認識モデルに応じて前記現在のフレームの画像における頭肩領域を取得し、前記現在のフレームの画像における頭肩領域に応じて前記追跡シーケンスセットを更新するステップと、
    歩行者をカウントするように前記追跡シーケンスセットにおける各頭肩領域の移動軌跡を分析し、前記現在のフレームの画像が最後のフレームの画像である場合、前記歩行者のカウント結果に基づいて歩行者流量ファネルを生成するステップと、を含み、
    前記多目標追跡アルゴリズムにより前記現在のフレームの画像において追跡シーケンスセットにおける頭肩領域を追跡及び更新するステップは、
    カーネル相関フィルタに基づく追跡アルゴリズムにより、前記現在のフレームの画像において前記追跡シーケンスセットにおける頭肩領域をそれぞれ追跡及び更新するステップを含み、
    前記現在のフレームの画像における頭肩領域に応じて前記追跡シーケンスセットを更新するステップは、
    前記現在のフレームの画像における各頭肩領域と前記追跡シーケンスセットにおける各頭肩領域との類似度を計算するステップと、
    前記類似度に応じて前記追跡シーケンスセットを更新するステップと、を含むことを特徴とする歩行者流量ファネル生成方法。
  2. 前記現在のフレームの画像を取得する前に、前記方法は、
    第1のフレームの画像を取得し、且つ、前記頭肩認識モデルに応じて前記第1のフレームの画像における頭肩領域を取得し、前記頭肩領域により前記追跡シーケンスセットの初期化を行うステップをさらに含む
    ことを特徴とする請求項1に記載の歩行者流量ファネル生成方法。
  3. 前記方法は、
    性別年齢認識モデルに応じて前記追跡シーケンスセットにおける各頭肩領域の年齢範囲及び性別を認識するステップをさらに含む
    ことを特徴とする請求項1に記載の歩行者流量ファネル生成方法。
  4. 前記歩行者のカウント結果に基づいて歩行者流量ファネルを生成するステップは、
    前記歩行者のカウント結果に基づいて、前記追跡シーケンスセットにおける各頭肩領域の年齢範囲及び性別を組み合わせて前記歩行者流量ファネルを生成するステップを含むことを特徴とする請求項2に記載の歩行者流量ファネル生成方法。
  5. 前記カーネル相関フィルタに基づく追跡アルゴリズムにより、前記現在のフレームの画像において前記追跡シーケンスセットにおける頭肩領域をそれぞれ追跡及び更新するステップは、
    前記追跡シーケンスセットにおける各頭肩領域の直前のフレームの画像での位置に基づいて、前記現在のフレームの画像において前記追跡シーケンスセットにおける各頭肩領域に対応する候補追跡目標をそれぞれ取得するステップと、
    各前記頭肩領域に対応するトラッカーに応じて、対応的に各前記頭肩領域に対応する候補追跡目標の応答値をそれぞれ計算するステップと、
    各前記頭肩領域に対応する候補追跡目標における最大応答値を持つ候補追跡目標を、対応する頭肩領域の前記現在のフレームの画像での追跡目標として確定するステップと、
    各前記頭肩領域の前記現在のフレームの画像での追跡目標に応じて、対応的に前記追跡シーケンスセットにおける各頭肩領域を更新するステップと、を含むことを特徴とする請求項1に記載の歩行者流量ファネル生成方法。
  6. 前記方法は、各前記頭肩領域に対応するトラッカーを計算するステップをさらに含み、
    各前記頭肩領域に対応するトラッカーを計算するステップは、
    前記追跡シーケンスセットにおける各頭肩領域の前記直前のフレームの画像での位置に基づいて、前記直前のフレームの画像において前記追跡シーケンスセットにおける各頭肩領域に対応する第1のトレーニングサンプルセットをそれぞれ取得するステップと、
    各前記頭肩領域に対応する第1のトレーニングサンプルセットに応じて回帰モデルをそれぞれトレーニングして、各前記頭肩領域に対応するトラッカーを得るステップと、を含むことを特徴とする請求項5に記載の歩行者流量ファネル生成方法。
  7. 前記方法は、畳み込みニューラルネットワークに応じて前記頭肩認識モデルを生成するステップをさらに含み、
    畳み込みニューラルネットワークに応じて前記頭肩認識モデルを生成するステップは、
    ImageNet分類データセットに応じてMobileNetネットワークをトレーニングして、前記MobileNetネットワークの重み値を得るステップと、
    前記MobileNetネットワークに予め設けられた層数の畳み込み層を追加して、頭肩検出ネットワークを得るステップであって、前記畳み込み層のサイズ層ごとに小さくする、前記頭肩検出ネットワークを得るステップと、
    前記頭肩領域がマークアップされた第2のトレーニングサンプルセットを取得し、前記第2のトレーニングサンプルセットに応じて前記MobileNetネットワークの重み値を保持する前記頭肩検出ネットワークをトレーニングして、前記頭肩認識モデルを得るステップと、を含むことを特徴とする請求項1に記載の歩行者流量ファネル生成方法。
  8. Figure 0007270617000005
  9. 前記類似度に応じて前記追跡シーケンスセットを更新するステップは、
    前記類似度及び類似度の閾値に応じて、前記現在のフレームの画像における各頭肩領域と前記追跡シーケンスセットにおける各頭肩領域とをそれぞれマッチングするステップと、
    マッチングに成功した場合、前記追跡シーケンスセットにおける頭肩領域を、前記現在のフレームの画像におけるマッチングに成功した頭肩領域で対応的に置き換えるステップと、
    マッチングに失敗した場合、前記現在のフレームの画像におけるマッチングに失敗した頭肩領域を前記追跡シーケンスセットに追加するステップと、を含むことを特徴とする請求項に記載の歩行者流量ファネル生成方法。
  10. 前記追跡シーケンスセットにおける頭肩領域を、前記現在のフレームの画像におけるマッチングに成功した頭肩領域で対応的に置き換えるステップは、
    前記現在のフレームの画像におけるマッチングに成功した頭肩領域及び対応する前記追跡シーケンスセットにおける頭肩領域の信頼度をそれぞれ計算するステップと、
    前記現在のフレームの画像におけるマッチングに成功した頭肩領域の信頼度が、対応する前記追跡シーケンスセットにおける頭肩領域の信頼度よりも大きい場合、前記追跡シーケンスセットにおける頭肩領域を、前記現在のフレームの画像におけるマッチングに成功した頭肩領域で対応的に置き換えるステップと、を含むことを特徴とする請求項に記載の歩行者流量ファネル生成方法。
  11. Figure 0007270617000006
  12. 前記歩行者をカウントするように前記追跡シーケンスセットにおける各頭肩領域の移動軌跡を分析する前に、前記方法は、
    前記追跡シーケンスセットには、第1の予め設けられたフレーム数の画像において各フレームの画像から取得された頭肩領域により更新されない追跡状態にある頭肩領域がある場合、第1の予め設けられたフレーム数の画像において各フレームの画像から取得された頭肩領域により更新されない頭肩領域を追跡状態から異常状態に変更するステップと、
    前記追跡シーケンスセットには、第2の予め設けられたフレーム数の画像において各フレームの画像から取得された頭肩領域により更新されない異常状態にある頭肩領域がある場合、追跡シーケンスセットにおいて、第2の予め設けられたフレーム数の画像において各フレームの画像から取得された頭肩領域により更新されない異常状態にある頭肩領域を削除するステップと、をさらに含むことを特徴とする請求項に記載の歩行者流量ファネル生成方法。
  13. 前記歩行者をカウントするように前記追跡シーケンスセットにおける各頭肩領域の移動軌跡を分析するステップは、
    前記追跡シーケンスセットにおける各頭肩領域の移動軌跡を分析するステップと、
    各頭肩領域の移動軌跡に応じて、仮想カウントラインを組み合わせて歩行者をカウントするステップと、を含むことを特徴とする請求項1に記載の歩行者流量ファネル生成方法。
  14. 前記方法は、前記性別年齢認識モデルを構築するステップをさらに含み、
    前記性別年齢認識モデルを構築するステップは、
    LFWデータセット及びソーシャルネットワーキングサイトにおいて性別及び年齢範囲がマークアップされた第3のトレーニングサンプルセットを取得するステップと、
    前記第3のトレーニングサンプルセットにより性別年齢ネットワークをトレーニングして、前記性別年齢認識モデルを得るステップであって、前記性別年齢ネットワークが3つの畳み込み層及び3つの全結合層を含む、前記性別年齢認識モデルを得るステップと、を含むことを特徴とする請求項3に記載の歩行者流量ファネル生成方法。
  15. 現在のフレームの画像を取得し、多目標追跡アルゴリズムにより前記現在のフレームの画像において追跡シーケンスセットにおける頭肩領域を追跡及び更新するように構成される追跡更新モジュールと、
    頭肩認識モデルに応じて前記現在のフレームの画像における頭肩領域を取得し、前記現在のフレームの画像における頭肩領域に応じて前記追跡シーケンスセットを更新するように構成される検出更新モジュールと、
    歩行者をカウントするように前記追跡シーケンスセットにおける各頭肩領域の移動軌跡を分析し、前記現在のフレームの画像が最後のフレームの画像である場合、前記歩行者のカウント結果に基づいて歩行者流量ファネルを生成するように構成される技術生成モジュールと、を含み、
    前記多目標追跡アルゴリズムにより前記現在のフレームの画像において追跡シーケンスセットにおける頭肩領域を追跡及び更新することは、
    カーネル相関フィルタに基づく追跡アルゴリズムにより、前記現在のフレームの画像において前記追跡シーケンスセットにおける頭肩領域をそれぞれ追跡及び更新することを含み、
    前記現在のフレームの画像における頭肩領域に応じて前記追跡シーケンスセットを更新することは、
    前記現在のフレームの画像における各頭肩領域と前記追跡シーケンスセットにおける各頭肩領域との類似度を計算することと、
    前記類似度に応じて前記追跡シーケンスセットを更新することと、を含むことを特徴とする歩行者流量ファネルを生成する装置。
  16. プロセッサにより実行される場合、請求項1~請求項14のいずれか1項に記載の歩行者流量ファネル生成方法を実現することを特徴とするプログラム。
  17. 請求項1に記載のプログラムが記録されたコンピュータ読み取り可能な記録媒体。
  18. プロセッサと、
    前記プロセッサにより実行可能な命令を記憶するためのメモリと、を含み、
    前記プロセッサは、前記実行可能な命令を実行することにより、請求項1~請求項1のいずれか1項に記載の歩行者流量ファネル生成方法を実行するように構成されることを特徴とする電子機器。
JP2020520032A 2017-10-24 2018-10-24 歩行者流量ファネル生成方法及び装置、プログラム、記憶媒体、電子機器 Active JP7270617B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201711002265.5 2017-10-24
CN201711002265.5A CN109697499B (zh) 2017-10-24 2017-10-24 行人流量漏斗生成方法及装置、存储介质、电子设备
PCT/CN2018/111713 WO2019080881A1 (zh) 2017-10-24 2018-10-24 行人流量漏斗生成方法及装置、存储介质、电子设备

Publications (2)

Publication Number Publication Date
JP2020537240A JP2020537240A (ja) 2020-12-17
JP7270617B2 true JP7270617B2 (ja) 2023-05-10

Family

ID=66227762

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020520032A Active JP7270617B2 (ja) 2017-10-24 2018-10-24 歩行者流量ファネル生成方法及び装置、プログラム、記憶媒体、電子機器

Country Status (4)

Country Link
US (1) US11210795B2 (ja)
JP (1) JP7270617B2 (ja)
CN (1) CN109697499B (ja)
WO (1) WO2019080881A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111368650B (zh) * 2020-02-18 2024-03-12 北京交通大学 一种基于轨迹数据的人群拥挤行为识别方法
US11341650B2 (en) * 2020-03-19 2022-05-24 At&T Intellectual Property I, L.P. Method for accelerating three-dimensional object segmentation with point cloud simplifications
CN112434566B (zh) * 2020-11-04 2024-05-07 深圳云天励飞技术股份有限公司 客流统计方法、装置、电子设备及存储介质
CN112380960A (zh) * 2020-11-11 2021-02-19 广东电力信息科技有限公司 一种人群计数方法、装置、设备和存储介质
CN112270381B (zh) * 2020-11-16 2022-06-03 电子科技大学 基于深度学习的人流量检测方法
CN114677607A (zh) * 2020-12-10 2022-06-28 富泰华工业(深圳)有限公司 基于人脸识别的实时行人统计方法以及装置
CN112464917A (zh) * 2021-01-06 2021-03-09 希望银蕨智能科技有限公司 一种非接触式测温***的人数统计方法
CN112906590A (zh) * 2021-03-02 2021-06-04 东北农业大学 一种基于FairMOT的多目标跟踪人流量监测方法
CN113673342A (zh) * 2021-07-19 2021-11-19 浙江大华技术股份有限公司 行为检测方法、电子装置和存储介质
CN114372994B (zh) * 2022-01-10 2022-07-22 北京中电兴发科技有限公司 视频浓缩中背景图像的生成方法
CN114677651B (zh) * 2022-05-30 2022-09-27 山东极视角科技有限公司 一种基于低画质低帧率视频的客流统计方法及相关装置
CN116330658B (zh) * 2023-01-12 2024-05-28 珠海视熙科技有限公司 基于深度图像的目标跟踪方法、装置、***及摄像设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017123024A (ja) 2016-01-06 2017-07-13 パナソニックIpマネジメント株式会社 動線分析システム及び動線分析方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7492924B2 (en) * 2003-07-18 2009-02-17 Intel Corporation Face tracking
JP2009211311A (ja) * 2008-03-03 2009-09-17 Canon Inc 画像処理装置及び方法
CN101777114B (zh) * 2009-01-08 2013-04-24 北京中星微电子有限公司 视频监控智能分析***和方法及头肩检测跟踪***和方法
CN101877058B (zh) * 2010-02-10 2012-07-25 杭州海康威视软件有限公司 人流量统计的方法及***
CN103049787B (zh) * 2011-10-11 2015-11-25 汉王科技股份有限公司 一种基于头肩特征的人数统计方法和***
US9367733B2 (en) * 2012-11-21 2016-06-14 Pelco, Inc. Method and apparatus for detecting people by a surveillance system
CN103021059A (zh) * 2012-12-12 2013-04-03 天津大学 一种基于视频监控的公交客流计数方法
CN103425967B (zh) 2013-07-21 2016-06-01 浙江大学 一种基于行人检测和跟踪的人流监控方法
KR102474837B1 (ko) * 2015-09-14 2022-12-07 주식회사 한화 전경 추출 방법 및 장치
JP2017097510A (ja) 2015-11-20 2017-06-01 ソニー株式会社 画像処理装置と画像処理方法およびプログラム
US9911198B2 (en) * 2015-12-17 2018-03-06 Canon Kabushiki Kaisha Method, system and apparatus for matching moving targets between camera views
WO2017201638A1 (en) * 2016-05-23 2017-11-30 Intel Corporation Human detection in high density crowds
CN106203513B (zh) * 2016-07-08 2019-06-21 浙江工业大学 一种基于行人头肩多目标检测及跟踪的统计方法
CN106530340B (zh) * 2016-10-24 2019-04-26 深圳市商汤科技有限公司 一种指定物体跟踪方法
CN107066990B (zh) * 2017-05-04 2019-10-11 厦门美图之家科技有限公司 一种目标跟踪方法及移动设备

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017123024A (ja) 2016-01-06 2017-07-13 パナソニックIpマネジメント株式会社 動線分析システム及び動線分析方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
「CrowdVision - Automated customer analytics for retail stores and malls」、[online]、2017年2月19日、[令和4年11月15日検索]、インターネット<URL:https://web.archive.org/web/20170219135629/https://www.crowdvision.com/solutions-retail/#tab2>
Kwang-Yong Kim et al., "Multi-object tracker using kemelized correlation filter based on appearance and motion model", Proceedings of the International Conference on Advanced Communication Technology (ICACT 2017), 2017.2.19, Pages 761-764
Zhiqiang Li et al., "Deep People Counting with Faster R-CNN and Correlation Tracking", Proceedings of the International Conference on Internet Multimedia Computing and Service (ICIMCS’16), 2016.8.19, Pages 57-60

Also Published As

Publication number Publication date
US20200349720A1 (en) 2020-11-05
CN109697499A (zh) 2019-04-30
JP2020537240A (ja) 2020-12-17
US11210795B2 (en) 2021-12-28
WO2019080881A1 (zh) 2019-05-02
CN109697499B (zh) 2021-09-07

Similar Documents

Publication Publication Date Title
JP7270617B2 (ja) 歩行者流量ファネル生成方法及び装置、プログラム、記憶媒体、電子機器
US11379696B2 (en) Pedestrian re-identification method, computer device and readable medium
CN108470332B (zh) 一种多目标跟踪方法及装置
Chen et al. Enhancing detection model for multiple hypothesis tracking
WO2022134344A1 (zh) 目标检测方法、***、设备及存储介质
Angah et al. Tracking multiple construction workers through deep learning and the gradient based method with re-matching based on multi-object tracking accuracy
Wang et al. Tracklet association by online target-specific metric learning and coherent dynamics estimation
CN108447080B (zh) 基于分层数据关联和卷积神经网络的目标跟踪方法、***和存储介质
Singh et al. Crowd monitoring: State-of-the-art and future directions
Rezaee et al. An autonomous UAV-assisted distance-aware crowd sensing platform using deep ShuffleNet transfer learning
US11270126B2 (en) Person tracking method, device, electronic device, and computer readable medium
WO2020258598A1 (zh) 图像处理方法、提名评估方法及相关装置
Ottakath et al. ViDMASK dataset for face mask detection with social distance measurement
WO2022134576A1 (zh) 红外视频时序行为定位方法、装置、设备及存储介质
Geng et al. Abnormal event detection in tourism video based on salient spatio-temporal features and sparse combination learning
Yang et al. Bird's-eye view social distancing analysis system
Ying et al. Multi-object tracking via MHT with multiple information fusion in surveillance video
Nayak et al. Deep learning based loitering detection system using multi-camera video surveillance network
Pi et al. Deep learning for visual analytics of the spread of COVID-19 infection in crowded urban environments
Haq et al. Implementation of smart social distancing for COVID-19 based on deep learning algorithm
CN115033739A (zh) 搜索方法、模型训练方法、装置、电子设备和介质
CN111783613B (zh) 异常检测方法、模型的训练方法、装置、设备及存储介质
CN117240632A (zh) 一种基于知识图谱的攻击检测方法和***
JP7280331B2 (ja) 車両関連付け方法、車両関連付け装置、電子機器、コンピュータ可読記憶媒体、路側機器、クラウドコントロールプラットフォームおよびプログラム
Xie et al. Dynamic Dual-Peak Network: A real-time human detection network in crowded scenes

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200408

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210929

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220301

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220629

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220830

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20221101

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230222

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20230307

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20230411

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230425

R150 Certificate of patent or registration of utility model

Ref document number: 7270617

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150