JP7357649B2 - 識別を容易にするための方法および装置 - Google Patents

識別を容易にするための方法および装置 Download PDF

Info

Publication number
JP7357649B2
JP7357649B2 JP2020573489A JP2020573489A JP7357649B2 JP 7357649 B2 JP7357649 B2 JP 7357649B2 JP 2020573489 A JP2020573489 A JP 2020573489A JP 2020573489 A JP2020573489 A JP 2020573489A JP 7357649 B2 JP7357649 B2 JP 7357649B2
Authority
JP
Japan
Prior art keywords
person
recognition data
image
images
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020573489A
Other languages
English (en)
Other versions
JP2021529404A (ja
JP2021529404A5 (ja
Inventor
ルストム、アディ、カンガ
ライ、チュン、リ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wildfaces Technology Ltd
Original Assignee
Wildfaces Technology Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wildfaces Technology Ltd filed Critical Wildfaces Technology Ltd
Publication of JP2021529404A publication Critical patent/JP2021529404A/ja
Publication of JP2021529404A5 publication Critical patent/JP2021529404A5/ja
Application granted granted Critical
Publication of JP7357649B2 publication Critical patent/JP7357649B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、識別を容易にするための方法および装置に関連し、限定されるわけではないが特には、比較的低い解像度の画像からの顔認識を用いた人物の識別を容易にするための方法および装置に関連し、限定されるわけではないが特には、移動するイメージングデバイスによって撮影された画像からの顔認識を用いた人物の識別を容易にするための方法および装置に関連する。
イメージングデバイスによって取得された人物の画像から人物を識別しようとする顔認識システムが知られている。顔認識(FR)の一つのアプローチは、イメージングデバイスにより、人物の顔についての1以上の画像を撮影することである。例えばデータベース内にある、当該画像からのデータと、比較のために利用可能な画像のギャラリーからの対応するデータと、を比較する様々なアルゴリズムにより、当該画像は処理される。画像のギャラリーは既知の人物についてのものであり、一つの画像が撮影された画像と一致した場合には、その人物が識別される。
この一般的な顔認識のアプローチは、多くの異なる利用可能な(複雑な)アルゴリズムおよび処理を使用して、多くの方法で実装されてもよい。
顔認識は、多くのアプリケーションにおいて使用されており、特には(限定されるわけではないが)セキュリティに関する。空港、立ち入り制限のある施設、その他の施設などのエリアにおいて、人物の存在を識別することは重要であり得る。ビデオカメラは、そのようなエリアを監視するためによく使用される。事件(犯罪など)が発生し、当該事件に巻き込まれた人物の画像が利用可能な場合(例えば、ビデオカメラが設置されてそのエリアを監視している場合や、例えばスマートフォンなどのパブリックなカメラからの画像など)には、パブリックなエリアにおける人物の識別もまた重要になり得る。
ビデオカメラのようなイメージングデバイスによって得られ得る画像からFRを実現するために、あるシーンの1枚の画像が撮影され得る。顔検出(FD)は、顔を判定して抽出するために当該画像に対して実行され、その後、この顔の画像の抽出は、FRを実行するために、利用可能な顔についてのギャラリーと照合するために使用される。しかし、正確な顔認識を達成するためには、現在のアプローチでは、比較的高い解像度の画像が一般的に必要とされる。
しかし、正確な識別のための適切な解像度の画像が利用できないという状況も多い。このような状況は、例えば、イメージングデバイスが遠くから人物の画像を撮影する場合に発生する。すなわち、イメージングデバイスが十分な解像度を取得することが技術的にできない場合である。
現在の顔認識システムを用いた正確な人物識別のためには、両目間のピクセル数が約70から100以上までの間である解像度が要求される。これ以下になると、現在の処理による識別の精度は低下し、一般的に、両目間のピクセル数が40以下になると識別ができなくなる。これが現在の顔認識システムの問題である。
現在の顔認識システムが利用されている目的のタスクの一つは、地理的なエリアをまたいで、1人または複数の人物の位置を追跡することである。例えば、公共エリアのカメラは、都市のような地理的な場所にいる人々を追跡するために使用されることがある。低解像度の画像しか利用できない場合、これは大抵、公共エリアのカメラの場合であり、追跡される人物がカメラから遠く離れている場合であるが、人物の識別と追跡は困難である。データベース内の画像ギャラリーと比較しても、解像度が低すぎるため、人物を識別することができない。
イメージングデバイスが場所的に固定されておらず、移動可能なイメージングデバイスである場合には、更なる問題が生じる。例えば、身体に装着されたカメラ、ドローン、個人のスマートフォン、PTZカメラ、または、他の移動するライブ的およびフォレンジック的なソースなどである。
イメージングデバイスによって取得された連続フレームまたは多数画像の間における人物の位置の追跡を要求するアプリケーションがある。カメラまたは他のイメージングデバイスが位置的に固定されている場合は、当該デバイスによって取られた画像の間における人物を追跡するために、位置予測を用いることが可能である。これは、第1の画像に撮影されている特定の人物に関連する「ブロブ」またはピクセルの組み合わせが、第2の画像のどこにあるかを予測することによって行うことができる。第2の画像は、当該イメージングデバイスによって取られた連続フレームであってもよい。人物は、ビデオの2つのフレーム間の非常に短い距離しか移動できないので、固定されたイメージングデバイスを使用した位置予測は非常に正確となり得る。しかし、当該デバイスが移動するイメージングデバイスの場合、フレーム間の追跡は不可能ではないにしても、はるかに困難である。ムービングデバイスの後続のフレームにおいて人物が現れる場所を正確に予測するために必要とされる三角法は、複雑で計算量が多い。さらに、イメージングデバイスが移動しているときには、認識されるはずの人物は遠くにいて、画像が比較的低い解像度である可能性も高い。
第1の側面によれば、本発明は、イメージングデバイスによって取得された画像から人物を識別する方法を提供し、以下のステップ、
人物を含むシーンの画像を取得するステップと、
人物と関連付けられた認識データを取得するために画像を処理するステップと、
人物を含むシーンの更なる画像を取得するステップと、
更なる認識データを取得するために更なる画像を処理するステップと、
連結認識データを取得するために認識データおよび更なる認識データを処理するステップと、
を備え、
連結認識データは、人物を識別するための処理において利用され得る。
ある実施形態では、認識データおよび更なる認識データを処理するステップは、認識データを統合するステップを含む。ある実施形態では、認識データは、両目の距離、口の幅などの顔の特徴に関するデータや、更なる特徴に関するデータを含んでいてもよく、同じ特徴に関するデータが各画像において得られ、画像および特徴からのデータ全てが統合される。
ある実施形態では、方法は、連結認識データを、同等の処理を使用して登録された複数の人物に対する連結認識データのデータベースと照合することにより、人物を識別するために連結認識データを処理するステップをさらに含む。ある実施形態では、同等の処理は、上述したのと同じであり、登録は、人物の画像および更なる画像を取得し、認識データを統合することによって認識データを統合することを含む。
当該処理は多数の画像を取得することを含み、多数の画像は、2と10の間、3から9、4から7、または5枚であってもよく、人物に関する取得した画像のそれぞれから認識データを取得することを含む。有利な点としては、画像からの認識データを統合して認識データを連結することにより、その後の識別処理の精度を向上させることができる。人物に関する連結認識データのデータベースは、同等の処理を用いて登録されていてもよい。
ある実施形態では方法は、比較的低い解像度の画像から人物を識別することができる。ある実施形態では、識別は、両目の間において、10から100ピクセルの間、または15から80ピクセルの間、または18から70ピクセルの間、または20から60ピクセルの間、のピクセルがある場合に、有利に取得することができる。ある実施形態では、処理は、精度を低下させつつも、25ピクセル未満のピクセルから10ピクセルまでの全てのピクセルを有する人物を識別してもよい。
人物の複数の画像(画像、更なる画像等)を取得するために、ある実施形態では、イメージングデバイスによって生成された複数の画像にわたって人物の位置を追跡することが必要である。例えば、人物は、多数のフレームにわたって、フレームからフレームへと追跡されてもよい。イメージングデバイスが固定され、あるシーンに向けられている場合、これは単純な位置追跡で達成され得る。このトラッキングを行う方法は多数知られている。ある方法は、基本的には、人物を表すピクセルの組み合わせ(例えば、人物の形状のブロブ、服の色、顔を構成するピクセルの組み合わせなど)を撮影する。次のステップは、その人がどこに移動したかを予測し、新しい場所でピクセルの組み合わせを探すことによってこれを確認する。個人は、ビデオの2つのフレーム間で画像内のごく短い距離(1/6秒間隔などの非常に短い時間)だけしか移動する可能性がないので、トラッキングは非常に正確に行うことができ、連続したフレームをまたいで人物を追跡することを簡単にする。人物の多数の画像(例えば5枚)が得られ、これらの画像から認識データを組み合わせて統合することにより、この実施形態の処理は、合成画像を構築することができ、低解像度の画像であっても比較的高い識別精度を可能にすることができる。
カメラがある位置に固定されている場合など、イメージングデバイスの位置が分かっている場合には、あるフレームから別のフレームへの人物の位置を予測することは可能だが、カメラが移動している場合には、追跡は、不可能ではないにしても、はるかに困難である。例えば、ドローン、身体に装着されたカメラ、PTZカメラ、動くスマートフォンのカメラ、またはその他の移動するライブ的およびフォレンジック的なソースなどがある。高解像度の画像が得られれば、従来の方法でも顔認識を行うことは可能かもしれない。しかし、多くの場合、特にこれらのソースでは、比較的高解像度の画像を取得することは困難である。
モバイルカメラからのトラッキングを実現することも時々は可能であるが、これは非常に困難で、後続の画像のどこに人物が現れるかを正確に予測するために必要な三角法は、非常に複雑で計算量が多いものである。
ある実施形態では、更なる画像を処理するステップは、第1の画像と関連付けられた認識データと、更なる画像から取得された認識データと、を利用することにより、更なる画像内の人物を区別するステップを含む。更なる画像内の人物を区別するステップは、更なる画像内の人物の位置を確定することができる。ある実施形態では、人物を区別するステップは、多数の画像に対して繰り返され、多数の画像のそれぞれについて人物の位置が確立され得るようにすることができる。したがって、人物は、画像から画像へと「追跡」され得る。この追跡は、従来の位置予測を使用せずに行われる。その代わりに、画像から利用可能な認識データを用いて、画像ごとに人物が識別される。各画像から取得された人物のデータを大規模なデータベースと照合する必要はない。各画像において利用可能な限られた認識データを用いることが、他の画像内の人物の位置を特定するのに必要である。
ある実施形態では、画像内に複数の人物が存在する場合に、人物ごとに認識データと更なる認識データが得られ、区別するステップは、画像内の各人物を他の人物と区別するために人物ごとの認識データを利用することを含み、それにより、多数の画像内で、各人物は識別され得るし、その位置を特定され得る。
ある実施形態では、複数の画像を介して人物を追跡するためのこのアプローチは、モバイルカメラのようなモバイルイメージングデバイスで使用され得る。これは、従来の位置予測ではなく、各画像内の人物を区別する限定的な識別処理によって追跡が行われるからである。画像内の限られた潜在的な数の他の人物から人物を区別するための限定的な認識処理(ある実施形態では、顔認識)を行うことは、各フレーム内で人物が識別されることを可能にし、したがって、人物についての複数の画像から連結データを取得することを可能にする。そして、この連結データは、上述した識別処理に使用することができる。ある実施形態では、シーン内に複数の人物がいる場合に、各人物は画像内の他の人物と区別され得るし、各人物は識別処理において別々に識別され得る。
ある実施形態では、認識データは顔認識データを含む。ある実施形態では、認識データは、衣服の色、歩き方、体の位置、および人物に関する他のデータなど、人物に関連付けられた他のデータも含んでいてよい。
第2の側面によれば、本発明は、イメージングデバイスによって取得された画像から人物を識別するための装置を提供し、当該装置は、プロセッサ、メモリ、および、コンピュータの処理をサポートするオペレーティングシステム、を有するコンピューティング装置と、人物と関連付けられた認識データを取得するために人物を含むシーンの画像を処理するようにアレンジされたデータキャプチャ処理であって、人物に対する更なる認識データを取得するために更なる画像を処理するようにアレンジされたデータキャプチャ処理と、連結認識データを取得するために認識データおよび更なる認識データを処理するようにアレンジされた連結処理と、を含む。連結認識データは人物を識別するための処理において利用され得る。
当該装置は、人物を識別するために、連結認識データを、複数の人物に対する同等の連結認識データを含むデータベースと照合するようにアレンジされた識別処理をさらに含む。
第3の側面によれば、本発明は、本発明の第1の側面に従う方法を実施するためにコンピュータを制御するための命令を含む、コンピュータプログラムを提供する。
第4の側面によれば、本発明は、本発明の第3の側面によるコンピュータプログラムを提供する不揮発性のコンピュータ可読媒体を提供する。
第5の側面によれば、本発明は、本発明の第3の側面によるコンピュータプログラムを含むデータ信号を提供する。
第6の側面によれば、本発明は、イメージングデバイスによって取得された画像から人物を識別するための方法を提供し、当該方法は、
1人以上の人物を含むシーンの画像を取得するステップと、
人物のうちの少なくとも1人と関連付けられた認識データを取得するために画像を処理するステップと、
少なくとも1人の人物を区別して1人の人物に対する更なる認識データを取得するために、更なる画像を取得するステップと、認識データを利用して更なる画像を処理するステップと、
を含む。
ある実施形態では、人物を区別するステップは、画像および更なる画像からの認識データを比較することと、画像内の人物の位置を特定することと、を含む。ある実施形態では、これにより、画像間において人物の位置が追跡されることを可能する。
ある実施形態では、画像および更なる画像を処理するステップは、画像内の複数の人物に対する認識データを取得することと、画像内の各人物を区別するために各人物からの認識データを照合することと、を含む。ある実施形態では、これにより、画像内の複数の人物を画像から画像へ追跡することを可能にする。
複数の実施形態では、3枚以上の画像およびそれらの画像のそれぞれにおいて区別された人物に対する認識データが取得され、それらの位置が特定されてもよい。
この実施形態では、位置予測を使用し、従来の方法にて、ある画像から別の画像への人物の位置を予測する必要はない。その代わりに、画像内に存在するかもしれない他の人物からその人物を区別するために、認識データを使用することによって人物は「追跡」される。複数の実施形態では、このアプローチは、位置予測を必要としないため、モバイルビデオカメラによって取得された画像に適している。代わりに、画像内の限定的で潜在的な数の他の人物からその人物を区別するための限定的な顔認識処理(認識データが顔認識データである実施形態においては)を実施することが、各画像内でその人物を区別することを可能にする。
ある実施形態では、方法は、連結認識データを提供するために、認識データおよび更なる認識データを処理する更なるステップを含む。連結認識データは、人物を識別するための処理において使用されてもよい。ある実施形態では、この処理は、本発明の第1の側面に関連して上述した処理であってもよい。ある実施形態では、画像内に複数の人物がいる場合、各人物が区別されて識別されてもよい。
本発明の本実施形態は、モバイルカメラからの画像での使用に限定されるものではなく、静止したビデオカメラから得られる画像を含む、あらゆる画像で使用することができる。しかしながら、ある実施形態の利点は、この処理がモバイルカメラからの画像で使用できることである。複数の実施形態では、画像は、テレビ番組、オンラインビデオなどのフォレンジックなソースから取得されてもよく、この処理に従って、画像を撮影するイメージングデバイスが移動している場合でも、人物の識別が行われてもよい。
ある実施形態では、認識データは顔認識メタデータを含む。ある実施形態では、認識データはまた、衣服の色、歩き方、体の位置など、人物に関連付けられた他のデータを含んでいてもよい。
第7の側面によれば、本発明は、イメージングデバイスによって取得された画像から人物を識別するための装置を提供し、当該装置は、プロセッサ、メモリ、および、コンピュータの処理をサポートするオペレーティングシステム、を有するコンピューティング装置と、そのうちの少なくとも1人と関連付けられた認識データを取得するために1人以上の人物を含むシーンの画像を処理するようにアレンジされたデータキャプチャ処理であって、人物に対する更なる認識データを取得するために更なる画像を処理するようにアレンジされたデータキャプチャ処理と、画像内の人物を区別するために認識データを利用するようにアレンジされた照合処理と、を含む。
ある実施形態では、データキャプチャ処理は、画像内の複数の人物に対する認識データを取得するようにアレンジされ、照合処理は、画像内の人物を区別するために、各人物の認識データを照合するようにアレンジされる。
ある実施形態では、装置は、人物を識別するための処理で使用され得る連結認識データを提供するために、認識データおよび更なる認識データを処理するようにアレンジされた連結処理をさらに含む。
第8の側面によれば、本発明は、本発明の第6の側面による方法を実施するためにコンピュータを制御するための命令を含むコンピュータプログラムを提供する。
第9の側面によれば、本発明は、本発明の第3の側面によるコンピュータプログラムを提供する、不揮発性のコンピュータ可読媒体を提供する。
第10の側面によれば、本発明は、本発明の第8の側面によるコンピュータプログラムを含むデータ信号を提供する。
本発明の実施形態は、人を識別することに限定されないが、いくつかの実施形態では、物体、動物などといったアイテム、またはその他のアイテム、を識別するために使用されてもよい。
第11の側面によれば、本発明は、イメージングデバイスによって取得された画像からアイテムを識別する方法を提供し、当該方法は、
1以上のアイテムを含むシーンの画像を取得するステップと、
アイテムのうちの少なくとも一つと関連付けられた認識データを取得するために画像を処理するステップと、少なくとも一つのアイテムを区別して当該アイテムに対する更なる認識データを取得するために、更なる画像を取得するステップと、認識データを利用して更なる画像を処理するステップと、を含む。
第12の側面によれば、本発明は、イメージングデバイスによって取得された画像からアイテムを識別するための装置を提供し、当該装置は、プロセッサ、メモリ、および、コンピュータの処理をサポートするオペレーティングシステム、を有するコンピューティング装置と、少なくとも一つのアイテムと関連付けられた認識データを取得するために1以上のアイテムを含むシーンの画像を処理するようにアレンジされたデータキャプチャ処理であって、当該アイテムに対する更なる認識データを取得するために更なる画像を処理するようにアレンジされたデータキャプチャ処理と、画像内の当該アイテムを区別するために認識データを利用するようにアレンジされた照合処理と、を含む。
装置は、アイテムに対する連結データを取得するために、認識データと更なる認識データを連結するようにアレンジされた連結処理をさらに含む。
第13の側面によれば、本発明は、本発明の第11の側面による方法を実施するためにコンピュータを制御するための命令を含むコンピュータプログラムを提供する。
第14の側面によれば、本発明は、本発明の第13の側面によるコンピュータプログラムを提供する、不揮発性のコンピュータ可読媒体を提供する。
第15の側面によれば、本発明は、本発明の第13の側面によるコンピュータプログラムを含むデータ信号を提供する。
第16の側面によれば、本発明は、イメージングデバイスによって取得された画像からアイテムを識別する方法を提供し、当該方法は、
アイテムを含むシーンの画像を取得するステップと、
アイテムと関連付けられた認識データを取得するために画像を処理するステップと、
アイテムを含むシーンの更なる画像を取得するステップと、
更なる認識データを取得するために更なる画像を処理するステップと、
連結認識データを取得するために認識データおよび更なる認識データを処理するステップと、
を備え、
それにより、連結認識データは、アイテムを識別するための処理において利用され得る。
第17の側面によれば、本発明は、イメージングデバイスによって取得された画像からアイテムを識別するための装置を提供し、当該装置は、プロセッサ、メモリ、および、コンピュータの処理をサポートするオペレーティングシステム、を有するコンピューティング装置と、アイテムと関連付けられた認識データを取得するためにアイテムを含むシーンの画像を処理するようにアレンジされたデータキャプチャ処理であって、アイテムに対する更なる認識データを取得するために更なる画像を処理するようにアレンジされたデータキャプチャ処理と、連結認識データを取得するために認識データおよび更なる認識データを処理するようにアレンジされた連結処理と、を含む。連結認識データはアイテムを識別するための処理において利用され得る。
第18の側面によれば、本発明は、本発明の第16の側面による方法を実施するためにコンピュータを制御するための命令を含むコンピュータプログラムを提供する。
第19の側面によれば、本発明は、本発明の第18の側面によるコンピュータプログラムを提供する、不揮発性コンピュータ可読媒体を提供する。
第20の側面によれば、本発明は、本発明の第18の側面によるコンピュータプログラムを含むデータ信号を提供する。
本発明の特徴および利点は、単なる例示ではあるが、添付の図面を参照して、その実施形態の以下の説明から明らかになるであろう。
本発明のある実施形態による装置を示す概略ブロック図である。 本発明のある実施形態による装置を実施するために利用され得るコンピューティング装置の概略図である。 本発明のある実施形態による処理を説明するフロー図である。 本発明の更なる実施形態による装置を実施するために利用され得るコンピューティング装置の概略図である。 本発明の更なる実施形態による処理を説明するフロー図である。
図1は、参照番号1によって参照される、本発明のある実施形態による装置を示す。この実施形態では、装置1は、サーバコンピュータ1として図示されている。しかし、多数のサーバコンピュータを含んでいてもよいし、他のタイプのコンピュータ装置を含んでいてもよいし、「クラウド」で実装されたコンピュータシステムを含んでいてもよい。
コンピュータ装置1は、複数のコンピュータの処理2、3、4、5を実行する、プロセッサ、メモリ、およびオペレーティングシステム(図示せず)を含む。
この実施形態では、コンピュータ装置1は、正確なFRを可能にするのに十分な情報を必ずしも提供しない1枚の画像のような、比較的低い解像度を有する画像から、適切なデータを取得して顔認識(FR)処理を実行するようにアレンジされている。
この実施形態では、装置1は、複数の人物11を含むシーン10の1以上のイメージングデバイス(図1では参照番号6、7、および8)によって取得された画像を処理するようにアレンジされている。
画像は装置1によって処理され、そのうちの少なくとも1人の人物11と関連付けられた認識データを取得する。更なる画像は、認識データを利用して処理され、そのうちの少なくとも1人の人物を他の人物から区別し、その人物に対する更なる認識データを取得する。そして、装置1は、認識データおよび更なる認識データを処理して顔認識(FR)処理で用いられ得る連結認識データを提供するようにアレンジされている。
データベース20は、FR処理を可能にするための画像のギャラリーを格納してもよい。当該データベースは、装置1のメモリによって実装されてもよいし、別個のデータベースであってもよいし、リモートデータベースであってもよい。
装置1は、通信インターフェース(図示せず)を含み、イメージングデバイス6、7、8と、(リモートの場合)データベース20と、また、対応者のデバイス25、26、27とも通信する。
対応者のデバイス25、26、27は、人物の画像の識別を取得したい人物によって操作されてもよい。例えば、対応者は、対応を必要とする場所またはインシデントを監視するセキュリティ要員を含んでもよい。
図2は、装置1の実施のために利用され得るコンピューティングアレンジメントの例についての概略ブロック図である。
コンピュータ900は、サーバコンピュータ、パーソナルコンピュータ、ポータブルコンピュータ、または他のタイプのコンピューティングデバイスにより構成されてもよい。また、コンピュータ900は、イメージングデバイス6、7、8内に組み込まれた組み込みシステムにより構成されてもよい。そのような代替案では、装置1は、全てまたは主にイメージングデバイス6、7、8内に組み込まれるであろう。しかし、例えば、広範な監視アプリケーションの場合、装置1は、図1に示されているように、サーバのような別個のコンピューティング装置である可能性が高い。
コンピュータ900は、本発明のこの実施形態の識別装置1を実現するためのふさわしいオペレーティングシステムおよび適切なコンピュータの処理を含む。
コンピュータ900は、1以上のデータ処理ユニット(CPUs)902と、RAMメモリ、磁気ディスク、光ディスク、ソリッドステートメモリなどといった様々なタイプの揮発性または不揮発性メモリが含まれてもよいとするメモリ904と、モニタ、キーボード、マウス、および/またはタッチスクリーンディスプレイが含まれてもよいとするユーザインタフェース906と、他のコンピュータおよび他のデバイスと通信するためのネットワークまたは他の通信インターフェース908と、システム900の異なる部分を相互に接続するための1以上の通信バス910と、を含む。
また、コンピュータ900は、通信インターフェース908を介してデータベース914に格納されたデータにアクセスしてもよい。データベース914は、分散型データベースであってもよい。データベースは、図1では20として示されている。
コンピュータ装置の一部または全部が「クラウド」において実現されていてもよい。
本発明のこの実施形態は、コンピューティング装置のハードウェアの動作のための命令を提供するソフトウェアの形態における適切なコンピュータの処理によって実現され、本実施形態の装置および本実施形態の方法を実施する。本発明の実施形態を容易にするコンピュータの処理は、ルーチンやサブルーチンのような共通基盤を共有し得る別個のモジュールとして実現されてもよい。コンピュータの処理は、いずれのふさわしい方法で実現されてもよく、別個のモジュールに限定されるものではない。機能を実現するためのあらゆるソフトウェア/ハードウェアのアーキテクチャが利用され得る。
本発明の実施形態を実現するためのコンピュータシステムは、上記の段落に記載されたコンピュータシステムに限定されない。あらゆるコンピュータシステムアーキテクチャ、例えば、スタンドアロンコンピュータ、ネットワーク化されたコンピュータ、専用のコンピューティングデバイス、ハンドヘルドデバイス、または本発明の実施形態のように受信および処理することが可能なデバイスなど、が利用され得る。アーキテクチャは、クライアント/サーバアーキテクチャ、または他のアーキテクチャから構成されてもよい。本発明の実施形態を実現するためのソフトウェアは、「クラウド」コンピューティングアーキテクチャによって処理されてもよい。複数の実施形態では、実装される様々な処理は、多数のプロセッサに分散されてもよい。例えば、いくつかは、イメージングデバイスの近く(「エッジ」で)で実行されてもよく、いくつかは中央サーバで実行されてもよい。
図1を再び参照すると、本発明の実施形態は、1枚の画像だけでは正確なFRを可能にするのに十分な情報が必ずしも得られないといったような、比較的解像度が低い画像しか得られなかった場合でも、顔認識(FR)を介した人物の識別を容易にする処理を実装している。
この実施形態の処理では、対象の人物を「追跡」して、当該人物の顔に関する多数の画像を取得する。多数の画像から取得された認識データは連結され、連結データを用いてFRが行われる。次に、図3を参照して、この処理についてさらに詳細に説明する。
ステップ1では、シーンの画像がイメージングデバイス6、7、8から取得される。ステップ2では、顔検出(FD)処理が取得された画像に対して行われ、画像内のあらゆる顔を検出する。
ステップ3では、更なる画像が得られる。更なる画像は、通常、ビデオシーケンスの次のフレームである。第1の画像で顔が検出された人物は、第2の画像に位置する。位置特定は、本実施形態で利用され、上述されたプレディクティブモーション予測のような従来手法によって行われてもよい。プレディクティブモーションを使用することは、知られているが、上述のように、静止したカメラに特に適している。この発明の更なる実施形態は、ビデオシーケンス内の人物の位置を追跡するために別の技術を使用し、この更なる実施形態を以下に説明する。しかし、この実施形態では、ビデオシーケンス内のある画像から別の画像への人物の動きを予測するためのあらゆる手段が利用され得る。
この処理がn回繰り返されて、追跡処理3(図1)により、同一人物の顔についてのn枚の画像を取得する(ステップ4)。
ステップ5では、同じ顔のn枚の画像を用いて、各画像から顔ごとに認識データを取得し(データキャプチャ処理2)、連結処理4によってデータの合成が作成される。
合成データは、1枚の画像だけから得られるデータよりも高い精度で、識別処理5によるFRを行うために用いられ得る(ステップ6)。
ステップ6の識別処理は、どのような方法で行われてもよいが、通常は、複数の画像から取得された合成データと、データベースに格納されている大勢の人物に対する合成データであって類似のものと、を比較することによって行われる。データベース内の各人物に対する合成データを取得するために、大勢の人物に対するデータが、上記と同様の処理を利用して登録される。
ここからは、データを連結する処理について詳しく説明する。
人物の顔に対する比較的解像度の高い画像が取得された場合、顔認識を行うための手法は以下の通りである。
それぞれの顔ごとに、多くの特徴が抽出され得る。このような特徴は、両目間における距離、口の幅などといった様々な形態をとることができる。いくつかの特徴は重要度が高く、それ故に他よりも価値が高い場合には、これらの特徴は、通常、加重平均を用いて統合され、その人を表す単一の特徴属性が作成される。伝統的に、この単一の統合された特徴属性は、ライブまたはフォレンジックなビデオからの対象の人物の画像の同じ統合された特徴属性と照合される。
Figure 0007357649000001
である。xは特定の特徴、aは重み付け係数、yは抽出された特徴の数である。
低解像度の画像を有しているときに起こりうるが、利用可能な特徴が不足していると、最も重要な特徴は収集されているが十分な特徴ではなくて精度は低下し、人物を識別することができない可能性が高くなる。
しかし、本発明のこの実施形態によれば、上述のように、人物についての複数の画像が得られる。これらの画像はそれぞれ、人物の顔についてわずかに異なる画像を提供する。この実施形態では、当該複数の画像のパラメータがマージされて、人物の顔の合成、統合された画像が作成され、これは、人物の3D画像とみなすことができる。
このような技術を使用して、照合と同様、データベースに人物を登録することができる。人物の3D画像を有することにより、1枚の低解像度画像では利用可能な情報の不足を補い、1枚の低解像度画像よりもはるかに高い精度を達成し得る。
そのため、この場合は、
Figure 0007357649000002
である。xは特定の特徴、aは重み付け係数、zは抽出された特徴の数である。Nは、3D画像の作成に用いられる画像の数である。
従来では、複数の画像を使用していた場合、例えば3枚の画像を使用したとすると、SAF(1)、SAF(2)、SAF(3)という三つの個別のSAFが算出され、対象の(SAF(T))の統合された単一特徴が、三つの個別のSAFのうちのそれぞれと照合され、SAF(T)が、SAF(1)、SAF(2)、SAF(3)のうちのいずれかに十分に近い場合には、一致していると判断される。
本発明のこの実施形態のアプローチでは、特徴についてのN個のセットを上記のようにマージし、人物の特徴の平均的統合を表す単一3D統合特徴を作成する。
そして、対象の3DのAFが登録されたデータベースのものと一致したときに、はるかに高い照合精度を達成することができる。
この実施形態では、あるビデオフレームから次のビデオフレームまで人物を追跡するために従来手法が使用され得る。この例では、あるフレームから次のフレームまで、人物のそれを表すピクセルを追跡することにより、従来の位置予測が使用される。上述のように、この追跡技術は、位置が固定されているカメラ(例えば、カメラ8)での使用に適しているが、モバイルであり得るカメラ(例えば、6および7)において、この技術を使用することははるかに困難である。
本発明の更なる実施形態は、新規な追跡技術を利用するが、図4および5を参照して説明される。
図4では、同様の構成要素を示すために、図1と同じ参照番号が用いられている。これらの構成要素についての更なる詳細な説明は省略する。しかし、イメージングデバイス6,7,8によって取得された画像をまたいで人物の画像を追跡するために、図1の従来の追跡処理3に代えて、装置1によって照合処理3Aが実施される。
より詳細には
カメラ6、7、8(もしくは他のカメラまたはイメージングデバイス)は、シーン10内の人物11を撮影するために使用されてもよい。シーン10は、固定された場所ではなく、それ自体が移動可能であってもよい。例えば、ウェアラブルカメラ6やスマートフォンカメラ7は、あらゆる場所の人物のインシデントまたは画像を撮影するために用いられてもよい。したがって、シーン10は移動してもよく、人物11はシーン内を移動してもよい。また、モバイルカメラ6、7も移動可能である。
カメラ6、7、8は、シーン10内の人物11のビデオを撮影するようにアレンジされている。ビデオフレームは、処理装置1に送信され、シーンの画像が処理装置によって得られるようにアレンジされている(ステップ1、図4)。処理装置1のデータキャプチャ処理2は、取得された画像を処理して画像内の顔を検出し(ステップ2)、検出された顔についての認識データ(本実施形態では顔認識データ(FR)の形態)を取得する(ステップ3)ようにアレンジされている。
次に、データキャプチャ処理は、更なる画像を処理し、更なる画像内の顔を検出するために顔検出を行い(ステップ4)、更なる画像内の顔からFRデータを取得する(ステップ5)ようにアレンジされる。次に、照合処理3が、ステップ4および5で取得されたFRデータを用いて、画像内の人物11を区別するために、「内部的な」顔照合を基本的に行う(ステップ6)。これは、画像フレーム間で同一人物を識別するために、基本的に動作する。画像内には数人の人物しかいない可能性が高いので、FRによって得られるメタデータは、画像の大ギャラリーに対する人物の完全な識別を要求することなく、画像内の人物を容易に区別することができる。照合処理は、撮影された画像内のごく少数の人物を区別するだけでよい。
このようにして、画像および更なる画像からのメタデータは、人物のうちの1人と関連付けることができる。更なる画像を取得し、顔検出を実行し、人物に対する更なるデータを取得するために顔認識を行うという処理は、複数回(「n」回)繰り返すことができる。したがって、顔認識のためのメタデータは、多数の画像フレームから取得され、その人物に関する画像データが照合処理3によって区別されているので、1人の人物に関連付けられ得る。次に、連結処理4は、画像から処理を経て取得された全てのFRデータを連結する。これにより、フレーム間の人物の位置に対する位置予測を要求せずに、撮影された画像フレームを介して、人物を効果的に「追跡」することができる。
一旦、FRデータの連結が行われると(ステップ7)、次に、追跡された1以上の顔の識別が、上述の第1の実施形態の識別処理(ステップ8)によって行われ得る。識別は、比較可能なデータを含む画像のギャラリーについての非常に大きなデータベースに対する連結データを用いて実施され得る。
識別される1以上の人物が全ての画像にいる必要はない。彼らは「n」枚の画像にいれば十分である。彼らは、例えば、モバイルのイメージングデバイスが関与している場合は特に、そのシーンに出たり入ったりしてもよい。
なお、1枚の低解像度画像からの顔認識から取得されたメタデータは、情報量が多すぎたり、少なすぎたりすることがある。これは、そのシーンが人々でどれほど混雑しているかに依存する。例えば、シーンに数人しかいない場合は、「追跡」区別認識のために、より少なくて単純なパラメータを使用することが適切であるかもしれない。これは、顔全体に対してより少ないパラメータを使用することを意味し得るし、または、より多くのパラメータを使用するものの、顔の限られた部分、例えば上半分から目までの部分、にのみしか使用しないことを意味し得る。したがって、処理の要件は変わり得る。シーン内の人々を区別するために十分なパラメータは必要であるが、完全な識別を行うのに十分なほどは必要ない。画像から画像へと人物を追跡できるために十分なパラメータだけを必要とする。
シーンに多くの人物がいる場合、FRトラッキングに必要なものを超えた追加のパラメータが使用される可能性がある。これらは、性別、年齢、もしくは民族、または、衣服、人物の髪の色、人物の身長などの顔的ではないその他のパラメータを含まれ得る。また、人物の歩き方、人物が座っているか倒れているか、車両内にいるか、木などのマーカーからの距離などといった「行動に関する」パラメータを含まれ得る。図4を再び参照すると、ステップ4、5、および6では、顔認識データと同様に、他の認識データが取得され得る。
上述のように、全ての画像に同一人物の顔が写っていない可能性がある。しかし、この方法を使えば、一部にはいるが全ての画像にはいないかもしれない人物を識別することができ、例えば連続した10枚の画像のうちの5枚から(あらゆる数が用いられ得る)、十分なデータを取り出すことができる。これは、メタデータを連結するのに、そしてそれによって人物を特定するのに、十分であるかもしれない。
なお、照合処理のために、異なるデータに異なる重み付けが対応付けられていてもよい。例えば、顔認識データ以外の更なるデータが使用される場合、更なるデータは、二次確認として「例えば、服の色」が用いられ得る。あるいは、顔認識データは、他のデータよりも低い評価を与えられ得る。
なお、上記の実施形態では、照合処理を介した追跡処理は、異なるシーンをまたいで人物を追跡するために利用され得るし、必ずしも同様に登録された人物についての大規模なデータベースと比較することによって人物を識別することが要求されているわけではない。例えば、ある監視カメラは、ある人物が不審な行動をしていることを検知し、その人物に関する認識データを取得してもよい。そして、照合処理は、他のエリアにある他のカメラから受信した画像で、その人物(絶対的な身元がわからなくても)がそれらのカメラに映っているかどうかを判定するために用いられ得る。そのため、不審者を地理的なエリアをまたいで追跡することができる。大規模なデータベースでの顔照合識別は、必要ならば、後で行い得る。
上記の実施形態では、処理および装置が人々の顔認識に適用された。本発明は、これに限定されるものではない。別の実施形態では、シーン内の物体などのアイテムが、互いに区別されて認識され得る。例えば、異なる車両は、その車体形状、または他のパラメータに基づいて区別され認識され得る。別のアイテムが識別され得る。
上記の実施形態では、本発明は、モバイルのイメージングデバイスに最も有用に適用される。しかし、本発明はこの適用に限定されるものではない。例えば、静止したカメラにも適用され得る。
上記実施形態では、デバイスが、スマートフォン、ウェアラブルカメラ、他のモバイルデバイスなどといったモバイルである場合に、デバイスに対する位置データも取得され得るし、デバイスがシーンの写真を取得しているときにデバイスがどのような地理的位置にいるのかを特定し得るし、したがって、そのシーンがどこかを特定し得る。
特定の実施形態に示されているように、広く説明された本発明の精神または範囲から逸脱することなく、多数の変形および/または修正が本発明になされ得ることは、当技術に熟練した者には理解されるであろう。したがって、本実施形態は、全ての点で例示的なものであり、制限的なものではないと考えるべきである。

Claims (12)

  1. イメージングデバイスによって取得されたビデオシーケンスから人物を識別する方法であって、
    (a)人物を含む前記ビデオシーケンスからシーンの画像を取得するステップと、
    (b)前記人物と関連付けられた認識データを取得するために前記画像を処理するステップと、
    (c)前記人物を含む前記シーンの更なる画像を取得するステップであって、前記更なる画像は前記ビデオシーケンスおける次のフレームであるステップと、
    (d)更なる認識データを取得するために前記更なる画像を処理するステップと、
    (e)連結認識データを取得するために前記認識データおよび前記更なる認識データを処理するステップと、
    を備え、
    前記連結認識データは、前記人物を識別するための処理において利用され得、
    前記認識データの各々および前記更なる認識データの各々は、前記人物の単一統合特徴を含み、
    前記ステップ(e)が、
    前記人物の特徴の平均的統合を表す合成統合特徴を作成するために前記単一統合特徴をマージするステップと、
    同等の処理を使用して前記人物を識別するために、前記合成統合特徴を、登録されたデータベースと照合するステップと、を備える、
    方法。
  2. 前記更なる画像を処理するステップは、第1の画像と関連付けられた認識データと、前記更なる画像から取得された認識データと、を利用することにより、前記更なる画像内の前記人物を区別するステップを含む、
    請求項1に記載の方法。
  3. 前記更なる画像内の前記人物の位置を特定するステップ
    をさらに備える請求項2に記載の方法。
  4. 前記人物を区別するステップは、多数の画像に対して繰り返され、前記多数の画像のそれぞれについて人物の位置が確立され、前記人物に対する認識データが前記多数の画像から得られる、
    請求項3に記載の方法。
  5. 前記画像内に複数の人々がおり、人物ごとに認識データおよび更なる認識データが得られ、前記区別するステップは前記画像内の各人物を他の人物と区別するために人物ごとの前記認識データを利用するステップを含み、それにより、各人物は識別され、多数の画像内における彼らの位置が特定され得る、
    請求項2に記載の方法。
  6. イメージングデバイスによって取得されたビデオシーケンスから人物を識別するための装置であって、プロセッサ、メモリ、および、コンピュータの処理と、人物と関連付けられた認識データを取得するために前記人物を含む前記ビデオシーケンスからシーンの画像を処理するようにアレンジされたデータキャプチャ処理であって、更なる画像を処理して前記人物に対する更なる認識データを取得するようにアレンジされ、前記更なる画像が、前記ビデオシーケンスにおける次のフレームであるデータキャプチャ処理と、連結認識データを取得するために前記認識データおよび前記更なる認識データを処理するようにアレンジされた連結処理と、をサポートするオペレーティングシステム、を有するコンピューティング装置を備え、
    前記認識データの各々および前記更なる認識データの各々は、前記人物の顔の単一統合特徴を含み、前記連結処理は、前記人物の顔の特徴の平均的統合を表す合成統合特徴を作成するために前記単一統合特徴をマージし、前記人物を識別するために、複数の人物の同等の連結認識データを含むデータベースに対して、前記合成統合特徴を照合するようにアレンジされる、
    装置。
  7. イメージングデバイスによって取得されたビデオシーケンスから人物を識別するための方法であって、
    (a)1人以上の人物を含む前記ビデオシーケンスからシーンの画像を取得するステップと、
    (b)前記人物のうちの少なくとも1人と関連付けられた認識データを取得するために前記画像を処理するステップと、
    (c)少なくとも1人の人物を区別して前記1人の人物に対する更なる認識データを取得するために、更なる画像を取得するステップであって、前記更なる画像は前記ビデオシーケンスおける次のフレームであるステップと、
    (d)連結認識データを取得するために前記認識データおよび前記更なる認識データを処理するステップと、
    を備え、
    前記連結認識データは、前記少なくとも1人の人物を識別するための処理において利用され得、
    前記認識データの各々および前記更なる認識データの各々は、前記少なくとも1人の人物の単一統合特徴を含み、
    前記ステップ(d)が、
    前記少なくとも1人の人物の特徴の平均的統合を表す合成統合特徴を作成するために前記単一統合特徴をマージするステップと、
    同等の処理を使用して前記少なくとも1人の人物を識別するために、前記合成統合特徴を、登録されたデータベースと照合するステップと、
    を備える方法。
  8. 前記人物を区別するステップは、前記画像および前記更なる画像からの前記認識データを比較するステップと、前記画像内の人物の位置を特定するステップと、を含む、
    請求項7に記載の方法。
  9. 前記画像および更なる画像を処理するステップは、前記画像内の複数の人物に対する認識データを取得するステップと、前記画像内の人物を区別するために各人物からの前記認識データを照合するステップと、を含む、
    請求項7に記載の方法。
  10. 前記画像および更なる画像を処理するステップは、前記複数の人物に対する更なる認識データを取得するステップと、各人物に対する連結認識データを提供するために、前記認識データおよび前記更なる認識データを処理するステップと、を含む、
    請求項9に記載の方法。
  11. 前記認識データは顔認識データを含む、
    請求項7に記載の方法。
  12. 前記認識データは、人物の画像に関連づけられた、顔認識データではない別のデータをさらに含む、
    請求項11に記載の方法。
JP2020573489A 2018-06-26 2019-05-10 識別を容易にするための方法および装置 Active JP7357649B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
HK18108237 2018-06-26
HK18108237.6 2018-06-26
PCT/CN2019/086344 WO2020001175A1 (en) 2018-06-26 2019-05-10 Method and apparatus for facilitating identification

Publications (3)

Publication Number Publication Date
JP2021529404A JP2021529404A (ja) 2021-10-28
JP2021529404A5 JP2021529404A5 (ja) 2022-01-11
JP7357649B2 true JP7357649B2 (ja) 2023-10-06

Family

ID=68984449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020573489A Active JP7357649B2 (ja) 2018-06-26 2019-05-10 識別を容易にするための方法および装置

Country Status (4)

Country Link
US (1) US11403880B2 (ja)
EP (1) EP3814989A4 (ja)
JP (1) JP7357649B2 (ja)
WO (1) WO2020001175A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010273112A (ja) 2009-05-21 2010-12-02 Fujifilm Corp 人物追跡方法、人物追跡装置および人物追跡プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8363951B2 (en) * 2007-03-05 2013-01-29 DigitalOptics Corporation Europe Limited Face recognition training method and apparatus
JP2012203668A (ja) * 2011-03-25 2012-10-22 Sony Corp 情報処理装置、物体認識方法、プログラム及び端末装置
CN105488478B (zh) 2015-12-02 2020-04-07 深圳市商汤科技有限公司 一种人脸识别***和方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010273112A (ja) 2009-05-21 2010-12-02 Fujifilm Corp 人物追跡方法、人物追跡装置および人物追跡プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Yunxiang Mao, Haohan Li, Zhaozheng Yin,Who missed the class? - Unifying multi-face detection, tracking and recognition in videos,2014 IEEE International Conference on Multimedia and Expo (ICME),米国,IEEE,2014年07月14日,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=6890334

Also Published As

Publication number Publication date
JP2021529404A (ja) 2021-10-28
WO2020001175A1 (en) 2020-01-02
EP3814989A4 (en) 2022-03-16
US20210271859A1 (en) 2021-09-02
US11403880B2 (en) 2022-08-02
EP3814989A1 (en) 2021-05-05

Similar Documents

Publication Publication Date Title
JP7282851B2 (ja) 装置、方法及びプログラム
Benedek et al. Lidar-based gait analysis and activity recognition in a 4d surveillance system
Bazzani et al. Multiple-shot person re-identification by hpe signature
US9665777B2 (en) System and method for object and event identification using multiple cameras
Bouchrika A survey of using biometrics for smart visual surveillance: Gait recognition
CN111291633B (zh) 一种实时行人重识别方法及装置
EP2864930B1 (en) Self learning face recognition using depth based tracking for database generation and update
JP6172551B1 (ja) 画像検索装置、画像検索システム及び画像検索方法
Fookes et al. Semi-supervised intelligent surveillance system for secure environments
US20060093185A1 (en) Moving object recognition apparatus
JPWO2017122258A1 (ja) 混雑状況監視システム及び混雑状況監視方法
JP6590609B2 (ja) 画像解析装置及び画像解析方法
KR101781358B1 (ko) 디지털 영상 내의 얼굴 인식을 통한 개인 식별 시스템 및 방법
CN110969118B (zh) 轨迹监控***和方法
JP2007317062A (ja) 人物認識装置及びその方法
WO2016162963A1 (ja) 画像検索装置、システム及び方法
JP2000306095A (ja) 画像照合・検索システム
CN103391424A (zh) 分析监控摄像机捕获的图像中的对象的方法和对象分析器
JP2014016968A (ja) 人物検索装置及びデータ収集装置
Perko et al. Airborne based high performance crowd monitoring for security applications
Tu et al. An intelligent video framework for homeland protection
JP7357649B2 (ja) 識別を容易にするための方法および装置
WO2020115910A1 (ja) 情報処理システム、情報処理装置、情報処理方法、およびプログラム
Chakraborty et al. Person re-identification using multiple first-person-views on wearable devices
Yoshioka et al. Improving person re-identification based on human height information

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230926

R150 Certificate of patent or registration of utility model

Ref document number: 7357649

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150