WO2022079841A1 - グループ特定装置、グループ特定方法、及びコンピュータ読み取り可能な記録媒体 - Google Patents

グループ特定装置、グループ特定方法、及びコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
WO2022079841A1
WO2022079841A1 PCT/JP2020/038817 JP2020038817W WO2022079841A1 WO 2022079841 A1 WO2022079841 A1 WO 2022079841A1 JP 2020038817 W JP2020038817 W JP 2020038817W WO 2022079841 A1 WO2022079841 A1 WO 2022079841A1
Authority
WO
WIPO (PCT)
Prior art keywords
group
person
candidate
group candidate
attribute
Prior art date
Application number
PCT/JP2020/038817
Other languages
English (en)
French (fr)
Inventor
浩雄 池田
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2020/038817 priority Critical patent/WO2022079841A1/ja
Priority to US18/030,909 priority patent/US20230377188A1/en
Priority to JP2022556761A priority patent/JPWO2022079841A5/ja
Publication of WO2022079841A1 publication Critical patent/WO2022079841A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Definitions

  • the group specifying unit 14 determines whether or not the setting condition is satisfied by using each similarity calculated for each of the plurality of second captured images (second image data), and determines whether or not the setting condition is satisfied.
  • the condition is satisfied, the persons constituting the first group candidate are specified as one group.
  • the setting condition for example, the number of second image data whose similarity is equal to or greater than the threshold value is equal to or greater than the set number.
  • sample database in which a group of a plurality of samples (hereinafter referred to as “sample group”) and its attribute configuration information are registered in advance is prepared.
  • sample groups include couples, families, travel groups, company colleagues, student groups, and the like.
  • the image data acquisition unit 15 acquires image data for a certain period of time output from the image pickup device (camera) 20, and the acquired image data is stored in the image data storage unit 16 in chronological order. Suppose it is stored in.
  • the first group candidate setting unit 11 acquires arbitrary image data as the first image data from the image data storage unit 16 (step A1).
  • the first group candidate setting unit 11 detects a plurality of persons from the first image data acquired in step A1, and further estimates the attributes of each of the detected plurality of persons (step A2). If a plurality of people cannot be detected from the first image data in step A2, the first group candidate setting unit 11 acquires another image data as the first image data, and again. Performs person detection and attribute estimation.
  • the second group candidate setting unit 12 corresponds to the reference person from the persons extracted in step A6 based on the attributes of the reference person selected by the first group candidate setting unit 11 in step A3. Select the corresponding person (step A7).
  • the group identification unit 14 collates the first attribute configuration information of the first group candidate with the database, identifies a sample group that matches the first group candidate, and also contains the sample group information. , Can be output to the management device 30.
  • examples of computers include smartphones and tablet-type terminal devices.
  • the computer may be a computer constituting the management device 30, and in this case, the group specifying device 10 in the embodiment will be built on the operating system of the management device 30.
  • the group identification device according to any one of Supplementary note 1 to 10.
  • the group specifying unit is the first in a database in which a plurality of sample groups and their attribute configuration information are registered in advance. By collating the first attribute configuration information of the group candidate of the above, the group to be the sample that matches the first group candidate is specified.
  • (Appendix 14) It is a method to identify the group from the captured image, In the first captured image, a person is selected from a plurality of people among them, and the spatial conditions that define the position of the other person and the state of the other person are defined based on the selected person.
  • the first group candidate setting step which sets the first group candidate based on the state condition.
  • a person In the second captured image whose shooting time is different from that of the first captured image, a person is selected from a plurality of persons by using the attribute of the person selected by the first group candidate setting step.
  • a second group candidate setting step which sets a second group candidate based on the spatial condition and the state condition based on the selected person.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)

Abstract

グループ特定装置10は、第1の撮影画像の中の複数の人物の中から人物を選択し、選択した人物を基準にして、他の人物の位置を規定する空間的条件及び他の人物の状態を規定する状態条件に基づき、第1のグループ候補を設定する、第1のグループ候補設定部11と、撮影時刻が異なる第2の撮影画像の中の複数の人物の中から、先に選択された人物の属性を用いて、人物を選択し、選択した人物を基準にして、空間的条件及び状態条件に基づき、第2のグループ候補を設定する、第2のグループ候補設定部12と、第1のグループ候補を構成する人物についての第1の属性構成情報と、第2のグループ候補を構成する人物についての第2の属性構成情報とを対比し、2つのグループ候補の類似度を算出する、類似度算出部13と、類似度が設定条件を満たす場合に、第1のグループ候補を構成する人物を1つのグループとして特定する、グループ特定部14と、を備えている。

Description

グループ特定装置、グループ特定方法、及びコンピュータ読み取り可能な記録媒体
 本発明は、撮影された画像から人物のグループを特定するための、グループ特定装置、及びグループ特定方法に関し、更には、これらを実現するためのプログラムを記録したコンピュータ読み取り可能な記録媒体に関する。
 公共施設等で撮影された画像の中からグループ(行動を共にする複数の人物)を特定し、そのグループの属性を認識することは、サービスの向上、及びマーケティングにおいて有用である。このため、従来から、撮影画像に基づいてグループを特定する装置が提案されている(例えば、特許文献1及び2参照)。
 具体的には、特許文献1に開示された装置は、撮影画像から人物の領域を抽出し、抽出された人物の領域間の距離及び領域間の重なりの状態に基づいて、領域が抽出された各人物が同一のグループに属しているかどうかを判定して、人物のグループを特定する。
 更に、特許文献1に開示された装置は、撮影画像から抽出された人物の領域それぞれを、フレーム単位で追跡し、人物の領域間の距離の近さが継続されている場合に、該当する各領域の人物を同一のグループとして特定することもできる。つまり、特許文献1に開示された装置は、人物間の距離の時間変化に基づいて、グループを特定することもできる。
 また、特許文献2に開示された装置は、まず、撮影画像から人物を検出し、検出した人物をフレーム単位で追跡し、各人物の位置情報を時系列に沿って取得する。そして、特許文献2に開示された装置は、取得された各人物の時系列の位置情報に基づいて、人物同士の相対距離及び相対速度を算出し、算出した相対距離及び相対速度が設定範囲内にある状態が一定時間以上継続している場合に、各人物は同一のグループに属していると判定する。
特開2004-54376号公報 特開2006-92396号公報
 ところで、上述の特許文献1に開示された装置には、人物同士が近い混雑した環境下で撮影が行われた場合、又はカメラの俯角が浅い状態(即ち、撮影方向が水平方向に近い状態)で撮影が行われた場合において、グループの特定が難しいという問題がある。これは、このような撮影が行われた場合、撮影画像にはグループの手前又は奥にグループに関係ない人物が重なって映り込みやすく、人物の領域間の距離及び領域間の重なりの状態による判定では、グループに関係のない人物を切り分けることが困難だからである。
 これに対して、上述の特許文献1に開示された装置であっても、追跡処理を行う場合であれば、上記の問題を解消することは可能であると考えられる。同様に、上述の特許文献2に開示された装置でも、追跡処理が行われるので、上記の問題を解消することは可能であると考えられる。
 しかしながら、追跡処理には、追跡精度を高く維持することが難しいという問題、撮影画像に現れる人物の存在時間が短いと追跡ができなくなるという問題がある。上述の特許文献1に開示された装置及び上述の特許文献2に開示された装置では、追跡処理によって得られた時系列の情報に基づいてグループを特定するため、このような問題が生じると、いずれにおいても、グループの特定は困難となる。このため、人物の追跡に依存しないで、グループを特定することが求められている。
 本発明の目的の一例は、上記問題を解消し、人物の追跡処理を必要とすることなく、グループを特定し得る、グループ特定装置、グループ特定方法、及びコンピュータ読み取り可能な記録媒体を提供することにある。
 上記目的を達成するため、本発明の一側面におけるグループ特定装置は、撮影画像からグループを特定するための装置であって、
 第1の撮影画像において、その中の複数の人物の中から人物を選択し、選択した人物を基準にして、他の人物の位置を規定する空間的条件及び前記他の人物の状態を規定する状態条件に基づいて、第1のグループ候補を設定する、第1のグループ候補設定部と、
 前記第1の撮影画像とは撮影時刻が異なる第2の撮影画像において、その中の複数の人物の中から、前記第1のグループ候補設定部によって選択された前記人物の属性を用いて、人物を選択し、選択した人物を基準にして、前記空間的条件及び前記状態条件に基づいて、第2のグループ候補を設定する、第2のグループ候補設定部と、
 前記第1のグループ候補を構成する人物それぞれの属性を含む第1の属性構成情報と、前記第2のグループ候補を構成する人物それぞれの属性を含む第2の属性構成情報とを対比し、前記第1のグループ候補と前記第2のグループ候補との類似度を算出する、類似度算出部と、
 算出された前記類似度が設定条件を満たす場合に、前記第1のグループ候補を構成する人物を1つのグループとして特定する、グループ特定部と、
を備えている、ことを特徴とする。
 また、上記目的を達成するため、本発明の一側面におけるグループ特定方法は、撮影画像からグループを特定するための方法であって、
 第1の撮影画像において、その中の複数の人物の中から人物を選択し、選択した人物を基準にして、他の人物の位置を規定する空間的条件及び前記他の人物の状態を規定する状態条件に基づいて、第1のグループ候補を設定する、第1のグループ候補設定ステップと、
 前記第1の撮影画像とは撮影時刻が異なる第2の撮影画像において、その中の複数の人物の中から、前記第1のグループ候補設定ステップによって選択された前記人物の属性を用いて、人物を選択し、選択した人物を基準にして、前記空間的条件及び前記状態条件に基づいて、第2のグループ候補を設定する、第2のグループ候補設定ステップと、
 前記第1のグループ候補を構成する人物それぞれの属性を含む第1の属性構成情報と、前記第2のグループ候補を構成する人物それぞれの属性を含む第2の属性構成情報とを対比し、前記第1のグループ候補と前記第2のグループ候補との類似度を算出する、類似度算出ステップと、
 算出された前記類似度が設定条件を満たす場合に、前記第1のグループ候補を構成する人物を1つのグループとして特定する、グループ特定ステップと、
を備えている、ことを特徴とする。
 更に、上記目的を達成するため、本発明の一側面におけるコンピュータ読み取り可能な記録媒体は、コンピュータによって撮影画像からグループを特定するためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記コンピュータに、
 第1の撮影画像において、その中の複数の人物の中から人物を選択し、選択した人物を基準にして、他の人物の位置を規定する空間的条件及び前記他の人物の状態を規定する状態条件に基づいて、第1のグループ候補を設定する、第1のグループ候補設定ステップと、
 前記第1の撮影画像とは撮影時刻が異なる第2の撮影画像において、その中の複数の人物の中から、前記第1のグループ候補設定ステップによって選択された前記人物の属性を用いて、人物を選択し、選択した人物を基準にして、前記空間的条件及び前記状態条件に基づいて、第2のグループ候補を設定する、第2のグループ候補設定ステップと、
 前記第1のグループ候補を構成する人物それぞれの属性を含む第1の属性構成情報と、前記第2のグループ候補を構成する人物それぞれの属性を含む第2の属性構成情報とを対比し、前記第1のグループ候補と前記第2のグループ候補との類似度を算出する、類似度算出ステップと、
 算出された前記類似度が設定条件を満たす場合に、前記第1のグループ候補を構成する人物を1つのグループとして特定する、グループ特定ステップと、
を実行させる命令を含む、プログラムを記録している、
ことを特徴とする。
 以上のように本発明によれば、人物の追跡処理を必要とすることなく、グループを特定することができる。
図1は、実施の形態におけるグループ特定装置の概略構成を示す構成図である。 図2は、実施の形態におけるグループ特定の構成を具体的に示す構成図である。 図3は、実施の形態における類似度の算出処理の第1例を示す図である。 図4は、実施の形態における類似度の算出処理の第2例を示す図である。 図5は、実施の形態におけるグループ特定装置の動作を示すフロー図である。 図6は、実施の形態におけるグループ特定装置を実現するコンピュータの一例を示すブロック図である。
(実施の形態)
 以下、実施の形態における、グループ特定装置、グループ特定方法、及びプログラムについて、図1~図5を参照しながら説明する。
[装置構成]
 最初に、実施の形態におけるグループ特定装置の概略構成について図1を用いて説明する。図1は、実施の形態におけるグループ特定装置の概略構成を示す構成図である。
 図1に示す実施の形態におけるグループ特定装置10は、撮影画像からグループを特定する装置である。図1に示すように、グループ特定装置10は、第1のグループ候補設定部11と、第2のグループ候補設定部12と、類似度算出部13と、グループ特定部14とを備えている。
 第1のグループ候補設定部11は、第1の撮影画像において、その中の複数の人物の中から人物を選択し、選択した人物を基準にして、他の人物の位置を規定する空間的条件及び他の人物の状態を規定する状態条件に基づいて、第1のグループ候補を設定する。
 第2のグループ候補設定部12は、第1の撮影画像とは撮影時刻が異なる第2の撮影画像において、その中の複数の人物の中から、第1のグループ候補設定部11によって選択された人物の属性を用いて、人物を選択する。また、第2のグループ候補設定部12は、選択した人物を基準にして、空間的条件及び状態条件に基づいて、第2のグループ候補を設定する。
 類似度算出部13は、第1のグループ候補を構成する人物それぞれの属性を含む第1の属性構成情報と、第2のグループ候補を構成する人物それぞれの属性を含む第2の属性構成情報とを対比し、第1のグループ候補と第2のグループ候補との類似度を算出する。
 グループ特定部14は、類似度算出部13によって算出された類似度が設定条件を満たす場合に、第1のグループ候補を構成する人物を1つのグループとして特定する。
 このように、実施の形態では、撮影日時の異なる2つの撮影画像それぞれから、グループ候補が設定され、更に、設定された2つのグループ候補間の類似度が算出される。そして、この類似度を用いることで、グループ候補を構成する人物が1つのグループであるかどうかが判定される。つまり、実施の形態によれば、人物の追跡処理を必要とすることなく、グループを特定することができる。
 続いて、図2~図4を用いて、実施の形態におけるグループ特定装置の構成及び機能について具体的に説明する。図2は、実施の形態におけるグループ特定の構成を具体的に示す構成図である。
 図2に示すように、実施の形態では、グループ特定装置10は、撮像装置20と、管理装置30とに接続されている。撮像装置20は、例えば、公共の施設等に設置されており、設定された間隔で、撮影対象となっている領域を撮影し、撮影画像の画像データを出力する。図2において、21は、撮影対象となっている領域に存在している人を示している。管理装置30は、グループ特定装置10によって特定される
 また、図2に示すように、実施の形態では、グループ特定装置10は、第1のグループ候補設定部11、第2のグループ候補設定部12、類似度算出部13、及びグループ特定部14に加えて、画像データ取得部15と、画像データ格納部16とを備えている。画像データ取得部15は、撮像装置(カメラ)20から出力されてきた撮影画像の画像データを取得し、取得した画像データを、時系列に沿って、画像データ格納部16に格納する。
 第1のグループ候補設定部11は、実施の形態では、まず、画像データ格納部16から、任意の画像データを第1の撮影画像の画像データ(以下「第1の画像データ」)として取得し、取得した第1の画像データから複数の人物を検出し、更に、検出した複数の人物それぞれの属性を推定する。なお、取得した第1の画像データから複数の人物を検出できなかった場合は、第1のグループ候補設定部11は、別の画像データを第1の画像データとして取得して、再度、人物検出及び属性推定を行う。
 具体的には、第1のグループ候補設定部11は、人(人の顔)を表す特徴量を用いて、第1の画像データから、人が存在する領域を特定し、特定した領域を人物として抽出する。また、第1のグループ候補設定部11は、人物の抽出において、人の顔の向き、又は人の向き(上半身又は下半身の向き)を検出することもできる。続いて、第1のグループ候補設定部11は、特定した領域における特徴量を求め、求めた特徴量を、分類器に入力して、特定した領域の人物の属性(性別、年齢、服飾(色、柄)、身長、体積、体重等)を推定する。分類器は、各種属性と特徴量との関係を機械学習することによって、予め作成されている。
 続いて、第1のグループ候補設定部11は、検出された複数の人物のうち任意の1人を基準人物として選択する。そして、第1のグループ候補設定部11は、基準人物を基準にして、基準人物以外の他の人物についての空間的条件及び状態条件に基づいて、第1の画像データから検出された人物で構成された第1のグループ候補を設定する。
 ここで、実施の形態では、空間的条件としては、他の人物が基準人物を中心とした設定範囲内に存在していることが挙げられる。状態条件としては、他の人物が基準人物と向き合っていること、他の人物が基準人物と同一の方向を向いていること、他の人物の大きさが基準人物の大きさを基準とした設定範囲内にあること、及びこれらの組合せ等が挙げられる。
 第2のグループ候補設定部12は、実施の形態では、画像データ格納部16から、第1の撮影画像とは撮影時刻が異なる第2の撮影画像の画像データ(以下、「第2の画像データ」を複数取得する。第2の撮影画像としては、例えば、撮影時刻が第1の撮影画像の撮影時刻よりも過去となっている撮影画像が挙げられる。
 第2のグループ候補設定部12は、取得した複数の第2の画像データそれぞれ毎に、複数の人物を検出し、更に、検出した複数の人物それぞれの属性を推定する。具体的には、第2のグループ候補設定部12は、第1のグループ候補設定部11と同様に、人(人の顔)を表す特徴量を用いて、各第2の画像データから、人が存在する領域を特定し、特定した領域を人物として抽出する。また、第2のグループ候補設定部12は、第1のグループ候補設定部11と同様に、人物の抽出において、人の顔の向き、又は人の向き(上半身又は下半身の向き)を検出することもできる。続いて、第2のグループ候補設定部12は、第1のグループ候補設定部11と同様に、特定した領域における特徴量を求め、求めた特徴量を、分類器に入力して、特定した領域の人物の属性(性別、年齢、服飾(色、柄)、身長、体積、体重等)を推定する。
 続いて、第2のグループ候補設定部12は、複数の第2の画像データそれぞれ毎に、第1のグループ候補設定部11によって選択された基準人物の属性に基づいて、抽出した人物の中から、基準人物に対応する人物(以下「対応人物」と表記する。)を選択する。なお、対応人物に該当するかどうかの判断基準としては、一致する属性の数が所定数以上であること、特定の幾つかの属性が一致していること、等が挙げられる。
 そして、第2のグループ候補設定部12は、対応人物を基準にして、対応人物以外の他の人物についての空間的条件及び状態条件に基づいて、第2の画像データから検出された人物で構成された第2のグループ候補を設定する。なお、ここでの空間的条件及び状態条件としても、第1のグループ候補設定部11の説明で例示したものが挙げられる。
 また、実施の形態では、第2のグループ候補設定部12は、複数の第2の撮影画像、即ち、第2の画像データを取得することができる。この場合は、第2のグループ候補設定部12は、第2の画像データ毎に、人物の検出、属性の推定、対応人物の選択、及び第2のグループ候補の設定を行う。
 更に、実施の形態では、第2のグループ候補設定部12は、第1の撮影画像の撮影時刻、第2の撮影画像の撮影時刻、及び第1のグループ候補設定部11によって選択された基準人物の位置に基づいて、第2の撮影画像の一部の領域を探索範囲に設定することもできる。この場合、第2のグループ候補設定部12は、設定した探索範囲の中から、対応人物を選択することができる。
 また、図2の例では、第1の撮影画像及び第2の撮影画像は、同一の撮像装置20から出力されているが、実施の形態では、第1の撮影画像を撮影した撮像装置と、第2の撮影画像を撮影した撮像装置とは、異なっていても良い。但し、両者が異なる場合、各撮像装置は、所定の時間範囲内で同一の被写体を撮影できるように配置されている必要がある。
 類似度算出部13は、実施の形態では、まず、第1のグループ候補設定部11によって推定された人物の属性を用いて、第1のグループ候補を構成する各人物の属性を含む第1の属性構成情報を作成する。また、類似度算出部13は、第2のグループ候補設定部12によって推定された人物の属性を用いて、第2のグループ候補を構成する各人物の属性を含む第2の属性構成情報を作成する。
 続いて、類似度算出部13は、複数の第2の撮影画像(第2の画像データ)それぞれ毎に、第1の属性構成情報に含まれる各人物の属性と、第2の属性構成情報に含まれる各人物の属性とを対比し、対比の結果に基づいて、類似度を算出する。図3及び図4を用いて、類似度の算出処理について詳細に説明する。図3は、実施の形態における類似度の算出処理の第1例を示す図である。図4は、実施の形態における類似度の算出処理の第2例を示す図である。
 図3に示す例では、第1の属性構成情報及び第2の属性構成情報は、グループ候補を構成する人物それぞれの属性を表すラベルデータで構成されている。そして、図3に示す例では、類似度算出部13は、類似度として、第1のグループ候補及び第2のグループ候補を合わせた全人物の数に対する、同じ属性を持つ人物の割合を算出する。
 図4に示す例では、第1の属性構成情報及び第2の属性構成情報は、グループ候補を構成する人物それぞれの属性をその属性に対する人物の数で整理した形で構成されている。そして、図4に示す例では、類似度算出部13は、まず、第1の属性構成情報及び第2の属性構成情報を、それぞれベクトル化する。続いて、類似度算出部13は、類似度として、ベクトル化した第1の属性構成情報とベクトル化した第2の属性構成情報との内積を算出する。また、類似度算出部13は、ベクトル化した第1の属性構成情報とベクトル化した第2の属性構成情報との間のユークリッド距離dを算出し、ユークリッド距離dから類似度(=1/(1+d))を算出することもできる。
 グループ特定部14が、実施の形態では、複数の第2の撮影画像(第2の画像データ)それぞれ毎に算出された各類似度を用いて、設定条件を満たすかどうかを判定し、設定条件を満たす場合に、第1のグループ候補を構成する人物を1つのグループとして特定する。設定条件としては、例えば、類似度が閾値以上となった第2の画像データの数が設定数以上であることが挙げられる。
 また、グループ特定部14は、第1のグループ候補を構成する人物を1つのグループとして特定する場合に、1つのグループとして特定した第1のグループ候補に関する情報を、管理装置30に出力する。グループ特定部14は、例えば、第1のグループ候補に関する情報として、第1のグループ候補を構成する人物それぞれにおける、位置、大きさ、向き、属性、及び第1の属性構成情報のうち、少なくとも1つを出力することができる。
 また、複数のサンプルとなるグループ(以下「サンプルグループ」と表記する。)とその属性構成情報とが予め登録されているデータベース(以下「サンプルデータベース」と表記する。)が用意されているとする。サンプルグループの例としては、カップル、家族連れ、旅行団体、会社同僚、学生グループ、等が挙げられる。
 このような態様では、グループ特定部14は、第1のグループ候補を構成する人物を1つのグループとして特定する場合に、第1のグループ候補の第1の属性構成情報をデータベースに照合して、第1のグループ候補に適合するサンプルグループも特定する。グループ特定部14は、サンプルグループの情報も、管理装置30に出力することができる。
 更に、グループ特定部14は、1つのグループとして特定した第1のグループ候補が複数存在する場合は、1つのグループとして特定された複数の第1のグループ候補それぞれに共通の人物が存在しているかどうかを判定する。そして、グループ特定部14は、共通の人物が存在していると判定した第1のグループ候補については、これらを統合して1つのグループとすることができる。この態様によれば、グループの特定がより正確なものとなる。
[装置動作]
 次に、実施の形態におけるグループ特定装置の動作について図5を用いて説明する。図5は、実施の形態におけるグループ特定装置の動作を示すフロー図である。以下の説明においては、適宜図1~図4を参照する。また、実施の形態では、グループ特定装置10を動作させることによって、グループ特定方法が実施される。よって、実施の形態におけるグループ特定方法の説明は、以下のグループ特定装置10の動作説明に代える。
 まず、前提として、画像データ取得部15が、撮像装置(カメラ)20から出力されてきた一定期間分の画像データを取得し、取得した画像データを、時系列に沿って、画像データ格納部16に格納しているとする。
 図5に示すように、最初に、第1のグループ候補設定部11は、画像データ格納部16から、任意の画像データを第1の画像データとして取得する(ステップA1)。
 次に、第1のグループ候補設定部11は、ステップA1で取得した第1の画像データから複数の人物を検出し、更に、検出した複数の人物それぞれの属性を推定する(ステップA2)。なお、ステップA2において、第1の画像データから複数の人物を検出できなかった場合は、第1のグループ候補設定部11は、別の画像データを第1の画像データとして取得して、再度、人物検出及び属性推定を行う。
 次に、第1のグループ候補設定部11は、ステップA2で検出された複数の人物のうち任意の1人を基準人物として選択する(ステップA3)。基準人物の選択基準は特に限定されず、ランダムに選択される態様であっても良いし、画像の所定の位置にいる人物が選択される態様であっても良い。
 次に、第1のグループ候補設定部11は、ステップA3で選択した基準人物を基準にして、基準人物以外の他の人物についての空間的条件及び状態条件に基づいて、第1の画像データから検出された人物で構成された第1のグループ候補を設定する(ステップA4)。
 次に、第2のグループ候補設定部12は、画像データ格納部16から、第1の画像データの撮影画像の撮影時刻よりも過去に撮影された撮影画像の画像データ(第2の画像データ)を取得する(ステップA5)。
 次に、第2のグループ候補設定部12は、ステップA5で取得した第2の画像データから、複数の人物を検出し、更に、検出した複数の人物それぞれの属性を推定する(ステップA6)。また、ステップA6でも、ステップA2と同様に、第2の画像データから複数の人物を検出できなかった場合は、第2のグループ候補設定部12は、別の画像データを第2の画像データとして取得して、再度、人物検出及び属性推定を行う。
 次に、第2のグループ候補設定部12は、ステップA3で第1のグループ候補設定部11によって選択された基準人物の属性に基づいて、ステップA6で抽出した人物の中から、基準人物に対応する対応人物を選択する(ステップA7)。
 次に、第2のグループ候補設定部12は、対応人物を基準にして、対応人物以外の他の人物についての空間的条件及び状態条件に基づいて、第2の画像データから検出された人物で構成された第2のグループ候補を設定する(ステップA8)。なお、ここでの空間的条件及び状態条件は、ステップA4で用いられる空間的条件及び状態条件と同じものである。
 次に、類似度算出部13は、ステップA2推定された人物の属性を用いて、第1のグループ候補を構成する各人物の属性を含む第1の属性構成情報を作成し、ステップA6で推定された人物の属性を用いて、第2のグループ候補を構成する各人物の属性を含む第2の属性構成情報を作成する(ステップA9)。
 次に、類似度算出部13は、ステップA9で作成した第1の属性構成情報に含まれる各人物の属性と、同じくステップA9で作成した第2の属性構成情報に含まれる各人物の属性とを対比し、対比の結果に基づいて、類似度を算出する(ステップA10)。類似度の算出は、図3又は図4に示された通りである。
 次に、類似度算出部13は、第2の画像データとして未だ処理されていない画像データが、画像データ格納部16に存在しているかどうかを判定する(ステップA11)。ステップA11の判定の結果、未だ処理されていない画像データが画像データ格納部16に存在している場合(ステップA11:Yes)は、再度ステップA5が実行される。一方、ステップA11の判定の結果、未だ処理されていない画像データが画像データ格納部16に存在していない場合(ステップA11:No)は、ステップA12が実行される。
 ステップA12では、グループ特定部14は、第2の画像データ毎に算出された各類似度を用いて、設定条件を満たすかどうかを判定し、設定条件を満たす場合に、第1のグループ候補を構成する人物を1つのグループとして特定する(ステップA12)。
 ステップA12では、グループ特定部14は、更に、1つのグループとして特定した第1のグループ候補に関する情報(人物それぞれにおける、位置、大きさ、向き、属性、及び第1の属性構成情報)を、管理装置30に出力する。
 更に、ステップA12では、グループ特定部14は、第1のグループ候補の第1の属性構成情報をデータベースに照合して、第1のグループ候補に適合するサンプルグループを特定し、サンプルグループの情報も、管理装置30に出力することができる。
 また、グループ特定部14は、過去に実行したステップA12によって、1つのグループとして特定した第1のグループ候補が複数存在する場合は、1つのグループとして特定された複数の第1のグループ候補それぞれに共通の人物が存在しているかどうかを判定する。そして、グループ特定部14は、共通の人物が存在していると判定した第1のグループ候補については、これらを統合して1つのグループとすることができる。
 また、ステップA12において、グループ特定部14が、第1のグループ候補を構成する人物を1つのグループとして特定しなかった場合は、第1のグループ候補設定部11は、第1の撮影画像中の複数の人物の中から、未だ選択されていない人物を基準人物として選択する。そして、第1のグループ候補設定部11は、再度ステップA4を実行して、新たに第1のグループ候補を設定する。
 第1のグループ候補が新たに設定されると、第2のグループ候補設定部12は、再度ステップA7及びA8を実行して、第2のグループ候補を新たに設定する。また、類似度算出部13は、第1のグループ候補及び第2のグループ候補が新たに設定されると、再度ステップA9及びA10を実行して、類似度を新たに算出する。その後、グループ特定部14は、再度ステップA12を実行して、新たに算出された類似度を用いて、グループを特定する。
[実施の形態における効果]
 以上のように、実施の形態では、撮影日時が異なる第1の撮影画像及び第2の撮影画像を用いて、画像毎にグループ候補が設定され、設定されたグループ候補間の類似度が求められる。また、類似度は、1つの第1の撮影画像と複数の第2の撮影画像との間で求められ、求められた幾つかの類似度から最終的なグループが特定される。このため、実施の形態では、人物同士が近い混雑した環境下であったり、カメラの俯角が浅い状態(即ち、撮影方向が水平方向に近い状態)であったりしても、人物の追跡処理を必要とすることなく、精度良くグループを特定できる。
[プログラム]
 実施の形態におけるプログラムとしては、コンピュータに、図5に示すステップA1~A12を実行させるプログラムが挙げられる。このプログラムをコンピュータにインストールし、実行することによって、実施の形態におけるグループ特定装置10とグループ特定方法とを実現することができる。この場合、コンピュータのプロセッサは、第1のグループ候補設定部11、第2のグループ候補設定部12、類似度算出部13、グループ特定部14、及び画像データ取得部15として機能し、処理を行なう。
 また、実施の形態では、画像データ格納部16は、コンピュータに備えられたハードディスク等の記憶装置に、これらを構成するデータファイルを格納することによって実現されていても良いし、別のコンピュータの記憶装置によって実現されていても良い。
 また、コンピュータとしては、汎用のPCの他に、スマートフォン、タブレット型端末装置が挙げられる。更に、コンピュータは、管理装置30を構成するコンピュータであっても良く、この場合は、実施の形態におけるグループ特定装置10は、管理装置30のオペレーティングシステム上に構築されることになる。
 また、実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、第1のグループ候補設定部11、第2のグループ候補設定部12、類似度算出部13、グループ特定部14、及び画像データ取得部15のいずれかとして機能しても良い。
[物理構成]
 ここで、実施の形態におけるプログラムを実行することによって、グループ特定装置10を実現するコンピュータについて図6を用いて説明する。図6は、実施の形態におけるグループ特定装置を実現するコンピュータの一例を示すブロック図である。
 図6に示すように、コンピュータ110は、CPU(Central Processing Unit)111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。
 また、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)を備えていても良い。この態様では、GPU又はFPGAが、実施の形態におけるプログラムを実行することができる。
 CPU111は、記憶装置113に格納された、コード群で構成された実施の形態におけるプログラムをメインメモリ112に展開し、各コードを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。
 また、実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
 また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
 データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
 また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD-ROM(Compact Disk Read Only Memory)などの光学記録媒体が挙げられる。
 実施の形態におけるグループ特定装置10は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェア、例えば、回路を用いることによっても実現可能である。更に、グループ特定装置10は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。
 上述した実施の形態の一部又は全部は、以下に記載する(付記1)~(付記39)によって表現することができるが、以下の記載に限定されるものではない。
(付記1)
 撮影画像からグループを特定するための装置であって、
 第1の撮影画像において、その中の複数の人物の中から人物を選択し、選択した人物を基準にして、他の人物の位置を規定する空間的条件及び前記他の人物の状態を規定する状態条件に基づいて、第1のグループ候補を設定する、第1のグループ候補設定部と、
 前記第1の撮影画像とは撮影時刻が異なる第2の撮影画像において、その中の複数の人物の中から、前記第1のグループ候補設定部によって選択された前記人物の属性を用いて、人物を選択し、選択した人物を基準にして、前記空間的条件及び前記状態条件に基づいて、第2のグループ候補を設定する、第2のグループ候補設定部と、
 前記第1のグループ候補を構成する人物それぞれの属性を含む第1の属性構成情報と、前記第2のグループ候補を構成する人物それぞれの属性を含む第2の属性構成情報とを対比し、前記第1のグループ候補と前記第2のグループ候補との類似度を算出する、類似度算出部と、
 算出された前記類似度が設定条件を満たす場合に、前記第1のグループ候補を構成する人物を1つのグループとして特定する、グループ特定部と、
を備えている、ことを特徴とするグループ特定装置。
(付記2)
付記1に記載のグループ特定装置であって、
 前記第2のグループ候補設定部が、撮影時刻が互いに異なる複数の前記第2の撮影画像それぞれ毎に、前記第2のグループ候補を設定し、
 前記類似度算出部が、複数の前記第2の撮影画像それぞれ毎に、前記第1の属性構成情報に含まれる、前記第1のグループ候補を構成する人物それぞれの属性と、前記第2の属性構成情報に含まれる、当該第2のグループ候補を構成する人物それぞれの属性とを対比し、前記類似度を算出し、
 前記グループ特定部が、複数の前記第2の撮影画像それぞれ毎に算出された前記類似度それぞれを用いて、前記設定条件を満たすかどうかを判定し、前記設定条件を満たす場合に、前記第1のグループ候補を構成する人物を1つのグループとして特定する、
ことを特徴とするグループ特定装置。
(付記3)
付記1または2に記載のグループ特定装置であって、
 前記空間的条件は、前記他の人物が選択された人物を中心とした設定範囲内に存在していることを含み、
 前記状態条件は、前記他の人物が、選択された人物と向き合っていること、又は選択された人物と同一の方向を向いていることを含む、
ことを特徴とするグループ特定装置。
(付記4)
付記3に記載のグループ特定装置であって、
 前記状態条件は、更に、前記他の人物の大きさが、選択された人物の大きさを基準とした設定範囲内にあることを含む、
ことを特徴とするグループ特定装置。
(付記5)
付記1~4のいずれかに記載のグループ特定装置であって、
 前記第1の属性構成情報が、前記第1のグループ候補を構成する人物それぞれの属性を表すラベルデータで構成され、
 前記第2の属性構成情報が、前記第2のグループ候補を構成する人物それぞれの属性を表すラベルデータで構成され、
 前記類似度算出部が、前記類似度として、前記第1のグループ候補及び前記第2のグループ候補を合わせた全人物の数に対する、同じ属性を持つ人物の割合を算出する、
ことを特徴とするグループ特定装置。
(付記6)
付記1~4のいずれかに記載のグループ特定装置であって、
 前記第1の属性構成情報が、前記第1のグループ候補を構成する人物それぞれの属性を、属性に対する人物の数で整理した形で構成され、
 前記第2の属性構成情報が、前記第2のグループ候補を構成する人物それぞれの属性を、属性に対する人物の数で整理した形で構成され、
 前記類似度算出部が、前記類似度として、前記第1の属性構成情報と前記第2の属性構成情報との内積、又は両者間のユークリッド距離を算出する、
ことを特徴とするグループ特定装置。
(付記7)
付記1~6のいずれかに記載のグループ特定装置であって、
 前記グループ特定部は、前記第1のグループ候補を構成する人物を1つのグループとして特定する場合に、前記第1のグループ候補を構成する人物それぞれにおける、位置、大きさ、向き、属性、及び前記第1の属性構成情報のうち、少なくとも1つを出力する、
ことを特徴とするグループ特定装置。
(付記8)
付記1~7のいずれかに記載のグループ特定装置であって、
 前記第2の撮影画像の撮影時刻が、前記第1の撮影画像の撮影時刻よりも過去であり、
 前記第1の撮影画像及び前記第2の撮影画像は、同一の撮像装置によって撮影されている、
ことを特徴とするグループ特定装置。
(付記9)
付記1~7のいずれかに記載のグループ特定装置であって、
 前記第1の撮影画像及び前記第2の撮影画像は、異なる撮像装置によって撮影されており、
 前記第1の撮影画像を撮影した撮像装置と、前記第2の撮影画像を撮影した撮像装置とは、所定の時間範囲内で同一の被写体を撮影できるように配置されている、
ことを特徴とするグループ特定装置。
(付記10)
付記1~9のいずれかに記載のグループ特定装置であって、
 前記第2のグループ候補設定部が、前記第1の撮影画像の撮影時刻、前記第2の撮影画像の撮影時刻、及び前記第1のグループ候補設定部によって選択された前記人物の位置に基づいて、前記第2の撮影画像の一部の領域を探索範囲に設定し、設定した前記探索範囲の中から、人物を選択する、
ことを特徴とするグループ特定装置。
(付記11)
付記1~10のいずれかに記載のグループ特定装置であって、
 前記グループ特定部は、前記第1のグループ候補を構成する人物を1つのグループとして特定する場合に、複数のサンプルとなるグループとその属性構成情報とが予め登録されているデータベースに、前記第1のグループ候補の前記第1の属性構成情報を照合して、前記第1のグループ候補に適合する、前記サンプルとなるグループを特定する、
ことを特徴とするグループ特定装置。
(付記12)
付記1~11のいずれかに記載のグループ特定装置であって、
 前記グループ特定部は、1つのグループとして特定した第1のグループ候補が複数存在する場合に、1つのグループとして特定された複数の第1のグループ候補それぞれに共通の人物が存在しているかどうかを判定し、共通の人物が存在していると判定した第1のグループ候補を統合して1つのグループとする、
ことを特徴とするグループ特定装置。
(付記13)
付記1~12のいずれかに記載のグループ特定装置であって、
 前記グループ特定部が、前記第1のグループ候補を構成する人物を1つのグループとして特定しなかった場合に、前記第1のグループ候補設定部は、第1の撮影画像中の複数の人物の中から、未だ選択されていない人物を新たに選択して、新たに、前記第1のグループ候補を設定し、
 前記第2のグループ候補設定部は、前記第1のグループ候補が新たに設定されると、前記第2のグループ候補を新たに設定し、
 前記類似度算出部は、前記第1のグループ候補及び前記第2のグループ候補が新たに設定されると、前記類似度を新たに算出し、
 前記グループ特定部は、新たに算出された前記類似度を用いて、グループを特定する、
ことを特徴とするグループ特定装置。
(付記14)
 撮影画像からグループを特定するための方法であって、
 第1の撮影画像において、その中の複数の人物の中から人物を選択し、選択した人物を基準にして、他の人物の位置を規定する空間的条件及び前記他の人物の状態を規定する状態条件に基づいて、第1のグループ候補を設定する、第1のグループ候補設定ステップと、
 前記第1の撮影画像とは撮影時刻が異なる第2の撮影画像において、その中の複数の人物の中から、前記第1のグループ候補設定ステップによって選択された前記人物の属性を用いて、人物を選択し、選択した人物を基準にして、前記空間的条件及び前記状態条件に基づいて、第2のグループ候補を設定する、第2のグループ候補設定ステップと、
 前記第1のグループ候補を構成する人物それぞれの属性を含む第1の属性構成情報と、前記第2のグループ候補を構成する人物それぞれの属性を含む第2の属性構成情報とを対比し、前記第1のグループ候補と前記第2のグループ候補との類似度を算出する、類似度算出ステップと、
 算出された前記類似度が設定条件を満たす場合に、前記第1のグループ候補を構成する人物を1つのグループとして特定する、グループ特定ステップと、
を備えている、ことを特徴とするグループ特定方法。
(付記15)
付記14に記載のグループ特定方法であって、
 前記第2のグループ候補設定ステップにおいて、撮影時刻が互いに異なる複数の前記第2の撮影画像それぞれ毎に、前記第2のグループ候補を設定し、
 前記類似度算出ステップにおいて、複数の前記第2の撮影画像それぞれ毎に、前記第1の属性構成情報に含まれる、前記第1のグループ候補を構成する人物それぞれの属性と、前記第2の属性構成情報に含まれる、当該第2のグループ候補を構成する人物それぞれの属性とを対比し、前記類似度を算出し、
 前記グループ特定ステップにおいて、複数の前記第2の撮影画像それぞれ毎に算出された前記類似度それぞれを用いて、前記設定条件を満たすかどうかを判定し、前記設定条件を満たす場合に、前記第1のグループ候補を構成する人物を1つのグループとして特定する、
ことを特徴とするグループ特定方法。
(付記16)
付記14または15に記載のグループ特定方法であって、
 前記空間的条件は、前記他の人物が選択された人物を中心とした設定範囲内に存在していることを含み、
 前記状態条件は、前記他の人物が、選択された人物と向き合っていること、又は選択された人物と同一の方向を向いていることを含む、
ことを特徴とするグループ特定方法。
(付記17)
付記16に記載のグループ特定方法であって、
 前記状態条件は、更に、前記他の人物の大きさが、選択された人物の大きさを基準とした設定範囲内にあることを含む、
ことを特徴とするグループ特定方法。
(付記18)
付記14~17のいずれかに記載のグループ特定方法であって、
 前記第1の属性構成情報が、前記第1のグループ候補を構成する人物それぞれの属性を表すラベルデータで構成され、
 前記第2の属性構成情報が、前記第2のグループ候補を構成する人物それぞれの属性を表すラベルデータで構成され、
 前記類似度算出ステップにおいて、前記類似度として、前記第1のグループ候補及び前記第2のグループ候補を合わせた全人物の数に対する、同じ属性を持つ人物の割合を算出する、
ことを特徴とするグループ特定方法。
(付記19)
付記14~17のいずれかに記載のグループ特定方法であって、
 前記第1の属性構成情報が、前記第1のグループ候補を構成する人物それぞれの属性を、属性に対する人物の数で整理した形で構成され、
 前記第2の属性構成情報が、前記第2のグループ候補を構成する人物それぞれの属性を、属性に対する人物の数で整理した形で構成され、
 前記類似度算出ステップにおいて、前記類似度として、前記第1の属性構成情報と前記第2の属性構成情報との内積、又は両者間のユークリッド距離を算出する、
ことを特徴とするグループ特定方法。
(付記20)
付記14~19のいずれかに記載のグループ特定方法であって、
 前記グループ特定ステップにおいて、前記第1のグループ候補を構成する人物を1つのグループとして特定する場合に、前記第1のグループ候補を構成する人物それぞれにおける、位置、大きさ、向き、属性、及び前記第1の属性構成情報のうち、少なくとも1つを出力する、
ことを特徴とするグループ特定方法。
(付記21)
付記14~20のいずれかに記載のグループ特定方法であって、
 前記第2の撮影画像の撮影時刻が、前記第1の撮影画像の撮影時刻よりも過去であり、
 前記第1の撮影画像及び前記第2の撮影画像は、同一の撮像装置によって撮影されている、
ことを特徴とするグループ特定方法。
(付記22)
付記14~20のいずれかに記載のグループ特定方法であって、
 前記第1の撮影画像及び前記第2の撮影画像は、異なる撮像装置によって撮影されており、
 前記第1の撮影画像を撮影した撮像装置と、前記第2の撮影画像を撮影した撮像装置とは、所定の時間範囲内で同一の被写体を撮影できるように配置されている、
ことを特徴とするグループ特定方法。
(付記23)
付記14~22のいずれかに記載のグループ特定方法であって、
 前記第2のグループ候補設定ステップにおいて、前記第1の撮影画像の撮影時刻、前記第2の撮影画像の撮影時刻、及び前記第1のグループ候補設定ステップによって選択された前記人物の位置に基づいて、前記第2の撮影画像の一部の領域を探索範囲に設定し、設定した前記探索範囲の中から、人物を選択する、
ことを特徴とするグループ特定方法。
(付記24)
付記14~23のいずれかに記載のグループ特定方法であって、
 前記グループ特定ステップにおいて、前記第1のグループ候補を構成する人物を1つのグループとして特定する場合に、複数のサンプルとなるグループとその属性構成情報とが予め登録されているデータベースに、前記第1のグループ候補の前記第1の属性構成情報を照合して、前記第1のグループ候補に適合する、前記サンプルとなるグループを特定する、
ことを特徴とするグループ特定方法。
(付記25)
付記14~24のいずれかに記載のグループ特定方法であって、
 前記グループ特定ステップにおいて、1つのグループとして特定した第1のグループ候補が複数存在する場合に、1つのグループとして特定された複数の第1のグループ候補それぞれに共通の人物が存在しているかどうかを判定し、共通の人物が存在していると判定した第1のグループ候補を統合して1つのグループとする、
ことを特徴とするグループ特定方法。
(付記26)
付記14~25のいずれかに記載のグループ特定方法であって、
 前記グループ特定ステップにおいて、前記第1のグループ候補を構成する人物を1つのグループとして特定しなかった場合に、前記第1のグループ候補設定ステップは、第1の撮影画像中の複数の人物の中から、未だ選択されていない人物を新たに選択して、新たに、前記第1のグループ候補を設定し、
 前記第2のグループ候補設定ステップにおいて、前記第1のグループ候補が新たに設定されると、前記第2のグループ候補を新たに設定し、
 前記類似度算出ステップにおいて、前記第1のグループ候補及び前記第2のグループ候補が新たに設定されると、前記類似度を新たに算出し、
 前記グループ特定ステップにおいて、新たに算出された前記類似度を用いて、グループを特定する、
ことを特徴とするグループ特定方法。
(付記27)
 コンピュータによって撮影画像からグループを特定するためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記コンピュータに、
 第1の撮影画像において、その中の複数の人物の中から人物を選択し、選択した人物を基準にして、他の人物の位置を規定する空間的条件及び前記他の人物の状態を規定する状態条件に基づいて、第1のグループ候補を設定する、第1のグループ候補設定ステップと、
 前記第1の撮影画像とは撮影時刻が異なる第2の撮影画像において、その中の複数の人物の中から、前記第1のグループ候補設定ステップによって選択された前記人物の属性を用いて、人物を選択し、選択した人物を基準にして、前記空間的条件及び前記状態条件に基づいて、第2のグループ候補を設定する、第2のグループ候補設定ステップと、
 前記第1のグループ候補を構成する人物それぞれの属性を含む第1の属性構成情報と、前記第2のグループ候補を構成する人物それぞれの属性を含む第2の属性構成情報とを対比し、前記第1のグループ候補と前記第2のグループ候補との類似度を算出する、類似度算出ステップと、
 算出された前記類似度が設定条件を満たす場合に、前記第1のグループ候補を構成する人物を1つのグループとして特定する、グループ特定ステップと、
を実行させる命令を含む、プログラムを記録している、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記28)
付記27に記載のコンピュータ読み取り可能な記録媒体であって、
 前記第2のグループ候補設定ステップにおいて、撮影時刻が互いに異なる複数の前記第2の撮影画像それぞれ毎に、前記第2のグループ候補を設定し、
 前記類似度算出ステップにおいて、複数の前記第2の撮影画像それぞれ毎に、前記第1の属性構成情報に含まれる、前記第1のグループ候補を構成する人物それぞれの属性と、前記第2の属性構成情報に含まれる、当該第2のグループ候補を構成する人物それぞれの属性とを対比し、前記類似度を算出し、
 前記グループ特定ステップにおいて、複数の前記第2の撮影画像それぞれ毎に算出された前記類似度それぞれを用いて、前記設定条件を満たすかどうかを判定し、前記設定条件を満たす場合に、前記第1のグループ候補を構成する人物を1つのグループとして特定する、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記29)
付記27または28に記載のコンピュータ読み取り可能な記録媒体であって、
 前記空間的条件は、前記他の人物が選択された人物を中心とした設定範囲内に存在していることを含み、
 前記状態条件は、前記他の人物が、選択された人物と向き合っていること、又は選択された人物と同一の方向を向いていることを含む、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記30)
付記29に記載のコンピュータ読み取り可能な記録媒体であって、
 前記状態条件は、更に、前記他の人物の大きさが、選択された人物の大きさを基準とした設定範囲内にあることを含む、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記31)
付記27~30のいずれかに記載のコンピュータ読み取り可能な記録媒体であって、
 前記第1の属性構成情報が、前記第1のグループ候補を構成する人物それぞれの属性を表すラベルデータで構成され、
 前記第2の属性構成情報が、前記第2のグループ候補を構成する人物それぞれの属性を表すラベルデータで構成され、
 前記類似度算出ステップにおいて、前記類似度として、前記第1のグループ候補及び前記第2のグループ候補を合わせた全人物の数に対する、同じ属性を持つ人物の割合を算出する、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記32)
付記27~30のいずれかに記載のコンピュータ読み取り可能な記録媒体であって、
 前記第1の属性構成情報が、前記第1のグループ候補を構成する人物それぞれの属性を、属性に対する人物の数で整理した形で構成され、
 前記第2の属性構成情報が、前記第2のグループ候補を構成する人物それぞれの属性を、属性に対する人物の数で整理した形で構成され、
 前記類似度算出ステップにおいて、前記類似度として、前記第1の属性構成情報と前記第2の属性構成情報との内積、又は両者間のユークリッド距離を算出する、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記33)
付記27~32のいずれかに記載のコンピュータ読み取り可能な記録媒体であって、
 前記グループ特定ステップにおいて、前記第1のグループ候補を構成する人物を1つのグループとして特定する場合に、前記第1のグループ候補を構成する人物それぞれにおける、位置、大きさ、向き、属性、及び前記第1の属性構成情報のうち、少なくとも1つを出力する、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記34)
付記27~33のいずれかに記載のコンピュータ読み取り可能な記録媒体であって、
 前記第2の撮影画像の撮影時刻が、前記第1の撮影画像の撮影時刻よりも過去であり、
 前記第1の撮影画像及び前記第2の撮影画像は、同一の撮像装置によって撮影されている、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記35)
付記27~33のいずれかに記載のコンピュータ読み取り可能な記録媒体であって、
 前記第1の撮影画像及び前記第2の撮影画像は、異なる撮像装置によって撮影されており、
 前記第1の撮影画像を撮影した撮像装置と、前記第2の撮影画像を撮影した撮像装置とは、所定の時間範囲内で同一の被写体を撮影できるように配置されている、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記36)
付記27~35のいずれかに記載のコンピュータ読み取り可能な記録媒体であって、
 前記第2のグループ候補設定ステップにおいて、前記第1の撮影画像の撮影時刻、前記第2の撮影画像の撮影時刻、及び前記第1のグループ候補設定ステップによって選択された前記人物の位置に基づいて、前記第2の撮影画像の一部の領域を探索範囲に設定し、設定した前記探索範囲の中から、人物を選択する、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記37)
付記27~36のいずれかに記載のコンピュータ読み取り可能な記録媒体であって、
 前記グループ特定ステップにおいて、前記第1のグループ候補を構成する人物を1つのグループとして特定する場合に、複数のサンプルとなるグループとその属性構成情報とが予め登録されているデータベースに、前記第1のグループ候補の前記第1の属性構成情報を照合して、前記第1のグループ候補に適合する、前記サンプルとなるグループを特定する、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記38)
付記27~37のいずれかに記載のコンピュータ読み取り可能な記録媒体であって、
 前記グループ特定ステップにおいて、1つのグループとして特定した第1のグループ候補が複数存在する場合に、1つのグループとして特定された複数の第1のグループ候補それぞれに共通の人物が存在しているかどうかを判定し、共通の人物が存在していると判定した第1のグループ候補を統合して1つのグループとする、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記39)
付記27~38のいずれかに記載のコンピュータ読み取り可能な記録媒体であって、
 前記グループ特定ステップにおいて、前記第1のグループ候補を構成する人物を1つのグループとして特定しなかった場合に、前記第1のグループ候補設定ステップは、第1の撮影画像中の複数の人物の中から、未だ選択されていない人物を新たに選択して、新たに、前記第1のグループ候補を設定し、
 前記第2のグループ候補設定ステップにおいて、前記第1のグループ候補が新たに設定されると、前記第2のグループ候補を新たに設定し、
 前記類似度算出ステップにおいて、前記第1のグループ候補及び前記第2のグループ候補が新たに設定されると、前記類似度を新たに算出し、
 前記グループ特定ステップにおいて、新たに算出された前記類似度を用いて、グループを特定する、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 以上のように本発明によれば、人物の追跡処理を必要とすることなく、グループを特定することができる。本発明は、画像からグループを特定することが求められる各種分野において有効である。
 10 グループ特定装置
 11 第1のグループ候補設定部
 12 第2のグループ候補設定部
 13 類似度算出部
 14 グループ特定部
 15 画像データ取得部
 16 画像データ格納部
 20 撮像装置
 30 管理装置
 110 コンピュータ
 111 CPU
 112 メインメモリ
 113 記憶装置
 114 入力インターフェイス
 115 表示コントローラ
 116 データリーダ/ライタ
 117 通信インターフェイス
 118 入力機器
 119 ディスプレイ装置
 120 記録媒体
 121 バス

Claims (15)

  1.  撮影画像からグループを特定するための装置であって、
     第1の撮影画像において、その中の複数の人物の中から人物を選択し、選択した人物を基準にして、他の人物の位置を規定する空間的条件及び前記他の人物の状態を規定する状態条件に基づいて、第1のグループ候補を設定する、第1のグループ候補設定手段と、
     前記第1の撮影画像とは撮影時刻が異なる第2の撮影画像において、その中の複数の人物の中から、前記第1のグループ候補設定手段によって選択された前記人物の属性を用いて、人物を選択し、選択した人物を基準にして、前記空間的条件及び前記状態条件に基づいて、第2のグループ候補を設定する、第2のグループ候補設定手段と、
     前記第1のグループ候補を構成する人物それぞれの属性を含む第1の属性構成情報と、前記第2のグループ候補を構成する人物それぞれの属性を含む第2の属性構成情報とを対比し、前記第1のグループ候補と前記第2のグループ候補との類似度を算出する、類似度算出手段と、
     算出された前記類似度が設定条件を満たす場合に、前記第1のグループ候補を構成する人物を1つのグループとして特定する、グループ特定手段と、
    を備えている、ことを特徴とするグループ特定装置。
  2. 請求項1に記載のグループ特定装置であって、
     前記第2のグループ候補設定手段が、撮影時刻が互いに異なる複数の前記第2の撮影画像それぞれ毎に、前記第2のグループ候補を設定し、
     前記類似度算出手段が、複数の前記第2の撮影画像それぞれ毎に、前記第1の属性構成情報に含まれる、前記第1のグループ候補を構成する人物それぞれの属性と、前記第2の属性構成情報に含まれる、当該第2のグループ候補を構成する人物それぞれの属性とを対比し、前記類似度を算出し、
     前記グループ特定手段が、複数の前記第2の撮影画像それぞれ毎に算出された前記類似度それぞれを用いて、前記設定条件を満たすかどうかを判定し、前記設定条件を満たす場合に、前記第1のグループ候補を構成する人物を1つのグループとして特定する、
    ことを特徴とするグループ特定装置。
  3. 請求項1または2に記載のグループ特定装置であって、
     前記空間的条件は、前記他の人物が選択された人物を中心とした設定範囲内に存在していることを含み、
     前記状態条件は、前記他の人物が、選択された人物と向き合っていること、又は選択された人物と同一の方向を向いていることを含む、
    ことを特徴とするグループ特定装置。
  4. 請求項3に記載のグループ特定装置であって、
     前記状態条件は、更に、前記他の人物の大きさが、選択された人物の大きさを基準とした設定範囲内にあることを含む、
    ことを特徴とするグループ特定装置。
  5. 請求項1~4のいずれかに記載のグループ特定装置であって、
     前記第1の属性構成情報が、前記第1のグループ候補を構成する人物それぞれの属性を表すラベルデータで構成され、
     前記第2の属性構成情報が、前記第2のグループ候補を構成する人物それぞれの属性を表すラベルデータで構成され、
     前記類似度算出手段が、前記類似度として、前記第1のグループ候補及び前記第2のグループ候補を合わせた全人物の数に対する、同じ属性を持つ人物の割合を算出する、
    ことを特徴とするグループ特定装置。
  6. 請求項1~4のいずれかに記載のグループ特定装置であって、
     前記第1の属性構成情報が、前記第1のグループ候補を構成する人物それぞれの属性を、属性に対する人物の数で整理した形で構成され、
     前記第2の属性構成情報が、前記第2のグループ候補を構成する人物それぞれの属性を、属性に対する人物の数で整理した形で構成され、
     前記類似度算出手段が、前記類似度として、前記第1の属性構成情報と前記第2の属性構成情報との内積、又は両者間のユークリッド距離を算出する、
    ことを特徴とするグループ特定装置。
  7. 請求項1~6のいずれかに記載のグループ特定装置であって、
     前記グループ特定手段は、前記第1のグループ候補を構成する人物を1つのグループとして特定する場合に、前記第1のグループ候補を構成する人物それぞれにおける、位置、大きさ、向き、属性、及び前記第1の属性構成情報のうち、少なくとも1つを出力する、
    ことを特徴とするグループ特定装置。
  8. 請求項1~7のいずれかに記載のグループ特定装置であって、
     前記第2の撮影画像の撮影時刻が、前記第1の撮影画像の撮影時刻よりも過去であり、
     前記第1の撮影画像及び前記第2の撮影画像は、同一の撮像装置によって撮影されている、
    ことを特徴とするグループ特定装置。
  9. 請求項1~7のいずれかに記載のグループ特定装置であって、
     前記第1の撮影画像及び前記第2の撮影画像は、異なる撮像装置によって撮影されており、
     前記第1の撮影画像を撮影した撮像装置と、前記第2の撮影画像を撮影した撮像装置とは、所定の時間範囲内で同一の被写体を撮影できるように配置されている、
    ことを特徴とするグループ特定装置。
  10. 請求項1~9のいずれかに記載のグループ特定装置であって、
     前記第2のグループ候補設定手段が、前記第1の撮影画像の撮影時刻、前記第2の撮影画像の撮影時刻、及び前記第1のグループ候補設定手段によって選択された前記人物の位置に基づいて、前記第2の撮影画像の一部の領域を探索範囲に設定し、設定した前記探索範囲の中から、人物を選択する、
    ことを特徴とするグループ特定装置。
  11. 請求項1~10のいずれかに記載のグループ特定装置であって、
     前記グループ特定手段は、前記第1のグループ候補を構成する人物を1つのグループとして特定する場合に、複数のサンプルとなるグループとその属性構成情報とが予め登録されているデータベースに、前記第1のグループ候補の前記第1の属性構成情報を照合して、前記第1のグループ候補に適合する、前記サンプルとなるグループを特定する、
    ことを特徴とするグループ特定装置。
  12. 請求項1~11のいずれかに記載のグループ特定装置であって、
     前記グループ特定手段は、1つのグループとして特定した第1のグループ候補が複数存在する場合に、1つのグループとして特定された複数の第1のグループ候補それぞれに共通の人物が存在しているかどうかを判定し、共通の人物が存在していると判定した第1のグループ候補を統合して1つのグループとする、
    ことを特徴とするグループ特定装置。
  13. 請求項1~12のいずれかに記載のグループ特定装置であって、
     前記グループ特定手段が、前記第1のグループ候補を構成する人物を1つのグループとして特定しなかった場合に、前記第1のグループ候補設定手段は、第1の撮影画像中の複数の人物の中から、未だ選択されていない人物を新たに選択して、新たに、前記第1のグループ候補を設定し、
     前記第2のグループ候補設定手段は、前記第1のグループ候補が新たに設定されると、前記第2のグループ候補を新たに設定し、
     前記類似度算出手段は、前記第1のグループ候補及び前記第2のグループ候補が新たに設定されると、前記類似度を新たに算出し、
     前記グループ特定手段は、新たに算出された前記類似度を用いて、グループを特定する、
    ことを特徴とするグループ特定装置。
  14.  撮影画像からグループを特定するための方法であって、
     第1の撮影画像において、その中の複数の人物の中から人物を選択し、選択した人物を基準にして、他の人物の位置を規定する空間的条件及び前記他の人物の状態を規定する状態条件に基づいて、第1のグループ候補を設定し、
     前記第1の撮影画像とは撮影時刻が異なる第2の撮影画像において、その中の複数の人物の中から、前記第1のグループ候補の設定の際に選択された前記人物の属性を用いて、人物を選択し、選択した人物を基準にして、前記空間的条件及び前記状態条件に基づいて、第2のグループ候補を設定し、
     前記第1のグループ候補を構成する人物それぞれの属性を含む第1の属性構成情報と、前記第2のグループ候補を構成する人物それぞれの属性を含む第2の属性構成情報とを対比し、前記第1のグループ候補と前記第2のグループ候補との類似度を算出し、
     算出された前記類似度が設定条件を満たす場合に、前記第1のグループ候補を構成する人物を1つのグループとして特定する、
    ことを特徴とするグループ特定方法。
  15.  コンピュータによって撮影画像からグループを特定するためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
    前記コンピュータに、
     第1の撮影画像において、その中の複数の人物の中から人物を選択し、選択した人物を基準にして、他の人物の位置を規定する空間的条件及び前記他の人物の状態を規定する状態条件に基づいて、第1のグループ候補を設定させ、
     前記第1の撮影画像とは撮影時刻が異なる第2の撮影画像において、その中の複数の人物の中から、前記第1のグループ候補の設定の際に選択された前記人物の属性を用いて、人物を選択し、選択した人物を基準にして、前記空間的条件及び前記状態条件に基づいて、第2のグループ候補を設定させ、
     前記第1のグループ候補を構成する人物それぞれの属性を含む第1の属性構成情報と、前記第2のグループ候補を構成する人物それぞれの属性を含む第2の属性構成情報とを対比し、前記第1のグループ候補と前記第2のグループ候補との類似度を算出させ、
     算出された前記類似度が設定条件を満たす場合に、前記第1のグループ候補を構成する人物を1つのグループとして特定させる、
    命令を含む、プログラムを記録している、
    ことを特徴とするコンピュータ読み取り可能な記録媒体。
     
PCT/JP2020/038817 2020-10-14 2020-10-14 グループ特定装置、グループ特定方法、及びコンピュータ読み取り可能な記録媒体 WO2022079841A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2020/038817 WO2022079841A1 (ja) 2020-10-14 2020-10-14 グループ特定装置、グループ特定方法、及びコンピュータ読み取り可能な記録媒体
US18/030,909 US20230377188A1 (en) 2020-10-14 2020-10-14 Group specification apparatus, group specification method, and computer-readable recording medium
JP2022556761A JPWO2022079841A5 (ja) 2020-10-14 グループ特定装置、グループ特定方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/038817 WO2022079841A1 (ja) 2020-10-14 2020-10-14 グループ特定装置、グループ特定方法、及びコンピュータ読み取り可能な記録媒体

Publications (1)

Publication Number Publication Date
WO2022079841A1 true WO2022079841A1 (ja) 2022-04-21

Family

ID=81208965

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/038817 WO2022079841A1 (ja) 2020-10-14 2020-10-14 グループ特定装置、グループ特定方法、及びコンピュータ読み取り可能な記録媒体

Country Status (2)

Country Link
US (1) US20230377188A1 (ja)
WO (1) WO2022079841A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014142810A (ja) * 2013-01-24 2014-08-07 Canon Inc 画像処理装置、画像処理方法およびプログラム
JP2017130061A (ja) * 2016-01-20 2017-07-27 キヤノン株式会社 画像処理システム、画像処理方法およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014142810A (ja) * 2013-01-24 2014-08-07 Canon Inc 画像処理装置、画像処理方法およびプログラム
JP2017130061A (ja) * 2016-01-20 2017-07-27 キヤノン株式会社 画像処理システム、画像処理方法およびプログラム

Also Published As

Publication number Publication date
US20230377188A1 (en) 2023-11-23
JPWO2022079841A1 (ja) 2022-04-21

Similar Documents

Publication Publication Date Title
US10509985B2 (en) Method and apparatus for security inspection
US20060093185A1 (en) Moving object recognition apparatus
JP5963609B2 (ja) 画像処理装置、画像処理方法
Arigbabu et al. Integration of multiple soft biometrics for human identification
KR20130095727A (ko) 비디오 내 객체들의 시맨틱 파싱
JP2014182480A (ja) 人物認識装置、及び方法
JP2017033547A (ja) 情報処理装置及びその制御方法及びプログラム
US11176679B2 (en) Person segmentations for background replacements
US10423817B2 (en) Latent fingerprint ridge flow map improvement
US11380133B2 (en) Domain adaptation-based object recognition apparatus and method
JP2010231254A (ja) 画像解析装置、画像解析方法およびプログラム
WO2024087519A1 (zh) 身份识别方法和装置及存储介质
CN112906483A (zh) 一种目标重识别方法、装置及计算机可读存储介质
Lee Component-based face detection and verification
CN112541403A (zh) 一种利用红外摄像头的室内人员跌倒检测方法
US10007842B2 (en) Same person determination device and method, and control program therefor
Xiang et al. Face recognition based on LBPH and regression of local binary features
US7957555B2 (en) Method and apparatus for localizing an object part in digital image data by updating an initial position estimate based on a displacement of the object part
WO2022079841A1 (ja) グループ特定装置、グループ特定方法、及びコンピュータ読み取り可能な記録媒体
US20030123734A1 (en) Methods and apparatus for object recognition
CN113269125B (zh) 一种人脸识别方法、装置、设备及存储介质
CN116071569A (zh) 图像选择方法、计算机设备及存储装置
Loos et al. Detection and identification of chimpanzee faces in the wild
CN112651996A (zh) 目标检测跟踪方法、装置、电子设备和存储介质
JP2020187531A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20957670

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022556761

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20957670

Country of ref document: EP

Kind code of ref document: A1