JP2019023785A - 人物識別装置及びプログラム - Google Patents

人物識別装置及びプログラム Download PDF

Info

Publication number
JP2019023785A
JP2019023785A JP2017142488A JP2017142488A JP2019023785A JP 2019023785 A JP2019023785 A JP 2019023785A JP 2017142488 A JP2017142488 A JP 2017142488A JP 2017142488 A JP2017142488 A JP 2017142488A JP 2019023785 A JP2019023785 A JP 2019023785A
Authority
JP
Japan
Prior art keywords
person
face
information
feature
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017142488A
Other languages
English (en)
Inventor
尾崎 良太
Ryota Ozaki
良太 尾崎
幸寛 坪下
Yukihiro Tsuboshita
幸寛 坪下
加藤 典司
Noriji Kato
典司 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2017142488A priority Critical patent/JP2019023785A/ja
Priority to US15/944,995 priority patent/US10896319B2/en
Publication of JP2019023785A publication Critical patent/JP2019023785A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

【課題】顔の特徴量と人体の特徴量とを単に組み合わせて人物の識別をする場合と比較して、精度の高い識別をすることが可能な人物識別装置及びプログラムを提供する。【解決手段】人物識別装置は、人物を含む画像のうち人物の顔に関する第1の特徴量及び体に関する第2の特徴量を抽出する抽出手段102、103と、抽出された前記第1の特徴量及び前記第2の特徴量にそれぞれ重み付けを付与して算出した第3の特徴量に基づいて前記人物を識別する識別手段105と、を備える。【選択図】図1

Description

本発明は、人物識別装置及びプログラムに関する。
近年、人物検出において顔検出フィルタと人体検出フィルタの使い分けを行う人物検出装置が提案されている(例えば、特許文献1参照。)。
特許文献1に記載された人物検出装置は、撮像手段により撮影された映像に含まれる人物を検出する人物検出装置において、前記映像に含まれる時系列の各画像のうち、所定の画像から所定以下の大きさを有する1又は複数の人物に対する人体領域を検出する人体検出手段と、前記所定の画像から所定以上の大きさを有する1又は複数の顔領域を検出する顔検出手段と、前記人体検出手段及び顔検出手段により得られる検出結果に基づいて、複数の画像に含まれる人物に対する同定処理を行う同定手段と、を有する。
特許第5203281号公報
本発明の課題は、顔の特徴量と人体の特徴量とを単に組み合わせて人物の識別をする場合と比較して、精度の高い識別をすることが可能な人物識別装置及びプログラムを提供することにある。
[1]人物を含む画像のうち人物の顔に関する第1の特徴量及び体に関する第2の特徴量を抽出する抽出手段と、抽出された前記第1の特徴量及び前記第2の特徴量にそれぞれ重み付けを付与して算出した第3の特徴量に基づいて前記人物を識別する識別手段と、を備えた人物識別装置。
[2]時系列上互いに先後する複数の画像のうち前記人物を含む人物領域を時系列の順番に連結した連結画像を生成する生成手段をさらに備え、前記抽出手段は、前記連結画像から前記人物領域に応じた複数の前記第1の特徴量及び複数の前記第2の特徴量を抽出し、前記識別手段は、抽出された前記複数の第1の特徴量及び前記複数の第2の徴量にそれぞれ重み付けを付与して算出した複数の前記第3の特徴量に基づいて前記人物を識別する、前記[1]に記載の人物識別装置。
[3]前記識別手段は、前記複数の画像ごとに設定された重み付けを付与して算出した複数の前記第3の特徴量に基づいて前記人物を識別する、前記[2]に記載の人物識別装置。
[4]前記識別手段は、連結される前記複数の人物領域の時系列上の時間差に応じて設定された重み付けを付与して算出した前記第3の特徴量に基づいて前記人物を識別する、前記[2]又は[3]に記載の人物識別装置。
[5]人物を識別する識別情報に関連付けて前記第1及び第2の特徴量を記憶する記憶手段と、前記抽出手段により抽出された前記第1の特徴量と前記記憶手段に記憶されている前記第1の特徴量に基づいて前記人物を含む画像に前記識別情報を有する特定の人物の顔が含まれる確率を示す第1の評価値を出力するとともに、前記抽出手段により抽出された前記第2の特徴量と前記記憶手段に記憶されている前記第2の特徴量に基づいて前記人物を含む画像に前記特定の人物の体が含まれる確率を示す第2の評価値を出力する出力手段と、をさらに備え、前記識別手段は、前記出力手段により出力された前記第1の評価値及び前記第2の評価値にそれぞれ重み付けを付与して算出した第3の評価値に基づいて前記人物を識別する、前記[1]から[4]のいずれか1つに記載の人物識別装置。
[6]前記識別手段は、前記第1の評価値及び前記第2の評価値に基づいて設定された重み付けを付与して算出した前記第3の評価値に基づいて前記人物を識別する、前記[5]に記載の人物識別装置。
[7]人物を識別する識別情報に関連付けて、前記人物を含む画像と前記第3の特徴量とを記憶する記憶手段と、前記識別手段により算出された前記第3の特徴量に基づいて前記人物を含む画像に前記識別情報を有する特定の人物が含まれる確率を示す評価値を出力する出力手段と、をさらに備え、前記識別手段は、前記第1の特徴量及び第2の特徴量にそれぞれ重み付けを付与して算出した第3の特徴量に基づいて前記出力手段により出力された前記評価値に基づいて前記人物を識別する、前記[1]から[4]のいずれか1つに記載の人物識別装置。
[8]前記画像は、複数の人物を含み、前記抽出手段は、前記画像のうち前記複数の人物のうち一の人物の顔に関する前記第1の特徴量及び前記特定の人物の体に関する第2の特徴量を抽出し、前記識別手段は、前記第1の特徴量及び前記第2の特徴量にそれぞれ重み付けを付与して算出した第3の特徴量に基づいて前記一の人物を識別する、前記[1]から[7]のいずれか1つに記載の人物識別装置。
[9]コンピュータを、人物を含む画像のうち人物の顔に関する第1の特徴量及び体に関する第2の特徴量を抽出する抽出手段と、抽出された前記第1の特徴量及び前記第2の特徴量にそれぞれ重み付けを付与して算出した第3の特徴量に基づいて前記人物を識別する識別手段と、として機能させるためのプログラム。
請求項1、5、7、9に係る発明によれば、顔の特徴量と人体の特徴量とを単に組み合わせて人物の識別をする場合と比較して、精度の高い識別をすることが可能になる。
請求項2に係る発明によれば、時系列上互いに先後する複数の画像を用いて、顔の特徴量及び人体の特徴量を単に組み合わせて人物の識別をすることと比較して、精度の高い識別をすることができる。
請求項3に係る発明によれば、時系列上互いに先後する複数の画像において重み付けを動的に変えて設定することができる。
請求項4に係る発明によれば、時系列上の時間差のある画像においても、顔の特徴量及び人体の特徴量を単に組み合わせて人物の識別をすることと比較して、精度の高い識別をすることができる。
請求項6に係る発明によれば、顔画像及び体画像から得られる評価値に基づいて重み付けを設定することができる。
請求項8に係る発明によれば、複数の人物を含む画像において、顔の特徴量及び人体の特徴量を単に組み合わせて人物の識別をすることと比較して、精度の良くそれぞれの人物を識別することができる。
図1は、本発明の第1の実施の形態に係る人物識別装置の制御系の一例を示すブロック図である。 図2は、撮像部によって撮像された画像の一例を示す図である。 図3は、図1に示す人物識別装置の動作の一例を示すフローチャートである。 図4は、本発明の第2の実施の形態に係る人物識別装置の制御系の一例を示すブロック図である。 図5(a)〜(d)は、動画像の一例を示す図である。 図6は、人物セグメントの作成の一例を示す図である。 図7(a)〜(c)は、人物セグメントの一例を示す図である。 図8は、図4に示す人物識別装置の動作の一例を示すフローチャートである。
以下、本発明の実施の形態について図面を参照して説明する。なお、各図中、実質的に同一の機能を有する構成要素については、同一の符号を付してその重複した説明を省略する。
[実施の形態の要約]
本実施の形態に係る人物識別装置は、人物を含む画像のうち人物の顔に関する第1の特徴量及び体に関する第2の特徴量を抽出する抽出手段と、抽出された第1の特徴量及び第2の特徴量にそれぞれ重み付けを付与して算出した第3の特徴量に基づいて人物を識別する識別手段と、を備える。
「人物を含む画像」とは、人物の少なくも一部を含む画像をいい、例えば、人物の全てを含む画像の他に、顔のみの画像、人物の顔以外の体のみの画像でもよい。
「第1の特徴量」とは、人物の顔を構成する構成要素(目、鼻、口等)の特徴を客観的に数値化したものをいう。「第2の特徴量」とは、人物の体を構成する構成要素(肩幅、首の太さ、服装等)の特徴を客観的に数値化したものをいう。第1の特徴量及び第2の特徴量には、例えば、HOG(Histograms of Oriented Gradient)特徴量、SIFT(Scale-invariant Feature Transform)特徴量、深層学習(Deep Learning)により抽出された特徴量等が含まれる。
「第1の特徴量及び第2の特徴量にそれぞれ重み付けを付与して算出した第3の特徴量」には、例えば、重み付け加算、重み付き平均(加重平均)等により算出した第3の特徴量が含まれる。
「人物を識別する」とは、他の人物と識別することをいう。なお、「人物を識別する」には、その人物の氏名等の識別情報まで特定することを含めてもよい。
[第1の実施の形態]
図1は、本発明の第1の実施の形態に係る人物識別装置の制御系の一例を示すブロック図である。この人物識別装置1は、人物識別装置1の各部を制御する制御部10と、各種のデータを記憶する記憶部11と、人物を撮影し画像を生成する撮像部12と、を備える。記憶部11は、記憶手段の一例である。
制御部10は、CPU(Central Processing Unit)、インターフェース等から構成されている。CPUは、記憶部11に記憶されたプログラム110に従って動作することにより、受付手段100、人物領域検出手段101、顔領域情報抽出手段102、体領域情報抽出手段103、情報統合手段104、人物同定手段105、更新手段106等として機能する。顔領域情報抽出手段102及び体領域情報抽出手段103は、抽出手段の一例である。人物同定手段105は、識別手段の一例である。各手段100〜106の詳細については後述する。
記憶部11は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク等から構成され、プログラム110、顔情報111、体情報112等の各種データを記憶する。
顔情報111は、顔を含む複数の画像(「顔を含む画像」を以下、「顔画像」ともいう。)、及びこれら複数の顔画像の特徴量を含むデータである。顔情報111は、後述する撮影により生成された画像20に含まれる人物200(図2参照)を識別するために照合されるデータである。顔画像及び顔画像の特徴量は、人物を識別するID(以下、「人物ID」ともいう。)に関連付けられて記憶されている。なお、顔画像及び顔画像の特徴量は、人物IDの他に、氏名等の識別情報に関連付けられて記憶されていてもよい。
顔画像の特徴量とは、顔画像に含まれる人物の顔の特徴を客観的に数値化したものであり、例えば、顔の輪郭、目、鼻、口、髪型等の特徴量が該当する。また、顔画像の特徴量には、顔の色、髪の色等の色情報や、メガネ、帽子等の装飾物に関する情報を含めてもよい。あるいは、単に色情報のみを顔画像の特徴量としてもよい。顔画像の特徴量は、例えば、HOG、SIFT、深層学習により事前に抽出されるものである。
体情報112は、体を含む複数の画像(「体を含む画像」を以下、「体画像」ともいう。)及びこれら複数の体画像の特徴量を含むデータである。体情報112は、撮影により生成された画像20に含まれる人物200を識別するために照合されるデータである。体画像及び体画像の特徴量は、人物IDに関連付けられて記憶されている。なお、体画像及び体画像の特徴量は、人物IDの他に、氏名等の識別情報に関連付けられて記憶されていてもよい。
体画像の特徴量とは、体画像に含まれる人物の体の特徴を客観的に数値化した量のことであり、例えば、体型や身長等人物の属性情報の特徴量や、服装の特徴量が該当する。単に色情報のみを体画像の特徴量としてもよい。体画像の特徴量は、例えば、HOG、SIFT、深層学習により事前に抽出されるものである。なお、以下では、特に記載のない限り「体」は、人物の身体のうち顔以外を示すものとするが、顔を含んでもよい。
撮像部12は、人物を撮影して画像を生成する。画像は、静止画像でも動画像でもよい。また、撮像部12は、生成した画像を受付手段100に渡す。撮像部12は、例えば、カメラである。
次に、制御部10の各手段100〜106について図2を参照して説明する。図2は、撮像部12によって撮像された画像20の一例を示す図である。図2では、3人の人物200を図示するが、1人、2人でもよく、4人以上でもよい。
(受付手段の構成)
受付手段100は、撮像部12が生成した画像20を受け付ける。画像20には、少なくとも1人以上の人物が含まれる。
(人物領域検出手段の構成)
人物領域検出手段101は、受付手段100が受け付けた画像20から人物200を含む領域201(以下、「人物領域201」ともいう。)を検出する。具体的には、人物領域検出手段101は、例えば、深層学習(Deep Leaning)等の機械学習により事前に学習させた人物の画像に基づいて、人物領域201を検出する。本実施の形態では、矩形状の人物領域201を例に説明するが、人物領域201は、矩形に囲まれた領域に限られるものではなく、例えば、円、楕円、多角形に囲まれる領域、人物の輪郭で囲まれる領域、人物の輪郭に外接する領域でもよい。また、人物領域201は、人物領域検出手段101による自動検出に限定されるものではなく、例えば、ユーザが目視で人物領域201を検出し、人物領域検出手段101がユーザにより検出された人物領域201の位置情報を受け付けるようにしてもよい。
(顔領域情報抽出手段の構成)
顔領域情報抽出手段102は、人物領域検出手段101が検出した人物領域201から、人物200の顔を含む領域202(以下、「顔領域202」ともいう。)を抽出する。具体的には、顔領域情報抽出手段102は、例えば、深層学習(Deep Leaning)等の機械学習により事前に学習させた人の顔に関する画像に基づいて顔領域202を抽出する。本実施の形態では、矩形状の顔領域202を例に説明するが、顔領域202は、矩形に囲まれた領域に限られるものではなく、例えば、円、楕円、多角形に囲まれる領域、顔の輪郭で囲まれる領域、顔の輪郭に外接する領域でもよい。また、顔領域202は、必ずしも人物の顔全体が含まれるものに限られず、人物の顔の一部(例えば、顔全体の面積のうち予め定められた割合以上の面積)のみが含まれるものでもよい。なお、顔領域202の抽出は上述した方法に限られるものではなく、例えば、ユーザによる目視で抽出してもよく、人物領域201において予め定められた範囲(例えば、上から1/nの範囲)を一律に顔領域202として抽出してもよい。
また、顔領域情報抽出手段102は、抽出した顔領域202から、例えば、HOG、SIFT、深層学習により特徴量を抽出する。顔領域202から抽出した特徴量は、第1の特徴量の一例である。
また、顔領域情報抽出手段102は、顔領域202から抽出した特徴量に基づいて、顔領域202に含まれる顔画像を記憶部11に記憶された顔情報111に含まれる顔画像と人物IDごとに照合し、顔領域202に含まれる顔画像が顔情報111に含まれる顔画像と一致する度合いを示す確率(以下、「第1の確率」ともいう。)を人物IDごとに算出する。「確率」には、別名として、「スコア」等を用いてもよい。また、第1の確率は、第1の評価値の一例である。なお、評価値は、確率に限られず、例えば、顔領域202に含まる人物が顔情報11に含まれる人物である確率を示す確信度や、類似の度合いを示す値、関連性の強さを示す値であってもよい。
具体的には、顔領域情報抽出手段102は、顔領域202から抽出した特徴量に基づいて事前に学習させた識別器から第1の確率を算出する。識別器には、例えば、Support Vector Machine識別器、Ada Boost識別器、Random Forest識別器、Neural Network識別器(deep neural networkを含む)等がある。
第1の確率は、例えば、顔領域202に含まれる顔画像と記憶部11に記憶された顔情報111に含まれる顔画像とが完全に一致している場合を1として、0から1の範囲の値で表される。
具体的には、顔領域情報抽出手段102は、顔情報111に関連付けられた人物IDごとに第1の確率P1K(K=1、2、・・・N)を算出する。ここで、Nは、顔情報111に関連付けられた人物の人数である。以下、K(K=1、2、・・・N)を顔情報111又は体情報112に関連付けられた人物IDとして説明する。
(体領域情報抽出手段の構成)
体領域情報抽出手段103は、人物領域検出手段101が検出した人物領域201から、人物200の顔以外の体を含む領域203(以下、「体領域203」ともいう。)を抽出する。具体的には、体領域情報抽出手段103は、人物領域201から顔領域202を除いた領域を体領域203として抽出する。体領域203は、少なくとも体の一部を含む領域をいい、顔以外の上半身のみを含む領域でもよい。
なお、体領域203は、必ずしも人物領域201から顔領域202を除いた領域に限定されるものではない。例えば、上述した人物領域201全体を体領域203としてもよい。あるいは、例えば、予め深層学習(Deep Leaning)等の機械学習により人の体に関する画像を事前に学習させ、学習させた当該人の体に関する画像に応じた領域を体領域203としてもよい。また、体領域203は、矩形状の領域に限られない。なお、体領域203の抽出は上述した方法に限られるものではない。
また、体領域情報抽出手段103は、抽出した体領域203から、例えば、HOG、SIFT、深層学習により特徴量を抽出する。体領域203から抽出した特徴量は、第2の特徴量の一例である。
また、体領域情報抽出手段103は、体領域203から抽出した特徴量に基づいて、体領域203に含まれる体画像を記憶部11に記憶された体情報112に含まれる体画像と人物IDごとに照合し、体領域203に含まれる体画像が体情報112に含まれる体画像と一致する度合いを示す確率(以下、「第2の確率」ともいう。)を人物IDごとに算出する。第2の確率は、第2の評価値の一例である。
具体的には、体領域情報抽出手段103は、体領域203から抽出した特徴量に基づいて事前に学習させた識別器から第2の確率を算出する。識別器には、例えば、Support Vector Machine識別器、Ada Boost識別器、Random Forest識別器、Neural Network識別器(deep neural networkを含む)等がある。
第2の確率は、例えば、体領域203に含まれる体画像と記憶部11に記憶された体情報112に含まれる体画像とが完全に一致している場合を1として、0から1の範囲の値で表される。
具体的には、体領域情報抽出手段103は、体情報112に関連付けられた人物IDごとに第2の確率P2K(K=1、2、・・・N)を算出する。
(情報統合手段の構成)
情報統合手段104は、顔領域情報抽出手段102が算出した第1の確率及び体領域情報抽出手段103が算出した第2の確率をそれぞれ重み付けを付与して統合した統合情報を算出する。
情報統合手段104は、例えば、第1の確率に係る係数(以下、「顔に係る係数」ともいう。)をw、第2の確率に係る係数(以下、「体に係る係数」ともいう。)をw、第1の確率をP、第2の確率をP、統合情報Fとした場合に、次の式を用いて統合情報Fを求めてもよい。
F=wxP+wxP
但し、w+w=1
顔に係る係数wは、統合情報Fに対する顔領域202から得られる情報(特徴量や第1の確率等)の重み付けを示す値である。体に係る係数wは、統合情報Fに対する体領域203から得られる情報(特徴量や第1の確率等)の重み付けを示す値である。顔に係る係数w、体係る係数wは、例えば、0から1の範囲の値で表される。顔に係る係数w、体係る係数wは、重み付けの一例である。統合情報Fは、第3の評価値の一例である。
情報統合手段104は、顔領域202から得られる情報及び体領域203から得られる情報のうち、情報量の多い方の重み付けを大きくする。具体的には、情報統合手段104は、例えば、体領域203の面積に対する顔領域202の面積の比率、人物200の服装の類似度、撮影した時間、及びこれらの組み合わせに基づいて、顔に係る係数w及び体に係る係数wのうち情報量の多い方の係数を情報量の少ない方の係数よりも大きい値に設定する。顔領域202及び体領域203の面積、人物200の服装の類似度、撮影した時間は一例であり、これらに限定されるものではない。また、顔に係る係数w及び体に係る係数wは、予め定められた値でもよく、ユーザから入力される値でもよい。以下、具体例を例示的に列挙して説明する。
(1)顔領域から得られる情報量が体領域から得られる情報量よりも多い例
(1−1)面積の比率
例えば、情報統合手段104が体領域203の面積に対する顔領域202の面積の比率が予め定められた比率以上と判断した場合、情報統合手段104は、顔に係る係数wを体に係る係数w以上の値に設定する(例えば、wが0.5以上)。
体領域203の面積に対する顔領域202の面積の比率が予め定められた比率以上の画像には、例えば、上半身のみが撮影された画像のように、人物200に対して顔の占める割合が顔以外の体が占める割合以上の画像等が含まれる。
(1−2)服装の類似度
また、例えば、情報統合手段104が人物200間の服装が類似していると判断した場合、情報統合手段104は、顔に係る係数wを体に係る係数w以上の値に設定する(例えば、wが0.5以上)。人物200間の服装が類似していると、体領域203から得られる情報のみでは人物200の識別がしにくい場合がある。このような画像については、人物の識別にとって、顔領域202から得られる情報量の方が体領域203から得られる情報量よりも多いものとして顔に係る係数wを体に係る係数w以上の値に設定する。
なお、人物200間の服装が類似しているかどうかは、情報統合手段104が事前に人物識別装置1にユーザから入力される情報に基づいて判定しもよく、情報統合手段104が体領域203から人物200の服装の類似の度合いを示す類似度を算出し、算出した類似度に基づいて判定してもよい。具体的には、情報統合手段104が同一の画像20や近い時間に得られた画像20内において、人物間で服装の類似度を算出してもよい。
(1−3)撮像した時間
また、例えば、情報統合手段104が画像20が生成された時間が顔情報111又は体情報112が記憶部11に記憶された時間から予め定められた時間(例えば、1日)経過しているものと判断した場合、情報統合手段104は、顔に係る係数wを体に係る係数w以上の値に設定する(例えば、wが0.5以上)。画像20が生成された時間が顔情報111又は体情報112が記憶部11に記憶された時間から予め定められた時間(例えば、1日)経過していると、画像情報20の生成時の人物の服装と体情報112が記憶部11に記憶された時の人物の服装との間の違いが大きいことが見込まれる。このような画像では、体領域203から得られる情報のみでは人物200の識別がしにくい場合があるため、人物の識別にとって、顔領域202から得られる情報量の方が体領域203から得られる情報量よりも多いものとして顔に係る係数wを体に係る係数w以上の値に設定する。
(2)顔領域から得られる情報量が体領域から得られる情報量よりも少ない例
(2−1)面積の比率
例えば、情報統合手段104が体領域203の面積に対する顔領域202の面積の比率が予め定められた比率よりも小さいと判断した場合、情報統合手段104は、顔に係る係数wを体に係る係数w未満の値に設定する(例えば、wが0.5未満)。
体領域203の面積に対する顔領域202の面積の比率が予め定められた比率よりも小さい画像には、例えば、撮影範囲が体の大きさと比較して十分に広いことにより顔による人物の同定がしにくいような画像等が含まれる。
(2−2)撮像した時間
また、例えば、情報統合手段104が画像20が生成された時間が体情報112が記憶部11に記憶された時間から予め定められた時間経過してないものと判断とした場合、情報統合手段104は、顔に係る係数wを体に係る係数w未満の値に設定する(例えば、wが0.5未満)。画像20が生成された時間が顔情報111又は体情報112が記憶部11に記憶された時間から予め定められた時間経過してないと、画像情報20の生成時の人物の服装と体情報112が記憶部11に記憶された時の人物の服装との間の違いが小さいことが見込まれる。このような画像については、人物の識別にとって、体領域203から得られる情報量の方が顔領域202から得られる情報量よりも以上であるものとして体に係る係数wを顔に係る係数w以上の値(換言すれば、例えば、wが0.5未満)に設定する。
(3)その他
また、情報統合手段104は、例えば、顔領域情報抽出手段102が算出した第1の確率P又は体領域情報抽出手段103が算出した第2の確率Pに基づいて顔に係る係数w及び体に係る係数wを設定してもよい。情報統合手段104は、例えば、第1の確率Pが第2の確率P以上の場合に、顔に係る係数wを体に係る係数w以上の値(例えば、0.5以上)にしてもよく、第1の確率Pが第2の確率Pよりも小さい場合に、顔に係る係数wを体に係る係数w小さい値(例えば、0.5未満)にしてもよい。
情報統合手段104は、顔情報111又は体情報112に関連付けられた人物IDごとに統合情報Fを算出する。例えば、情報統合手段104は、次の式、
=w1KxP1K+w2KxP2K、(K=1、2、・・・N)
に従って、顔情報111又は体情報112に関連付けられた人物IDごとに統合情報F(K=1、2、・・・N)を算出してもよい。
1k、w2kは、顔情報111又は体情報112に関連付けられた人物IDごとに設定された重み付けを示す係数である。このように、情報統合手段104は、顔情報111又は体情報112に関連付けられた人物IDごとに各係数w1K、w2Kを設定してもよい。なお、各係数w1K、w2Kは、顔情報111又は体情報112に関連付けられた人物IDによらず共通の値としてもよい。
(人物同定手段の構成)
人物同定手段105は、情報統合手段104により算出された統合情報Fに基づいて人物200を同定する。具体的には、人物同定手段105は、情報統合手段104により算出された統合情報F(K=1、2、・・・N)のうちの最大値F(M=1、2、・・・、N)が予め定められたしきい値以上の場合に、当該人物領域に含まれる人物200が、人物IDがKの人物であると同定する。
また、人物同定手段105は、統合情報F(K=1、2、・・・N)のうちの最大値F(M=1、2、・・・、N)が予め定められたしきい値未満の場合、当該人物領域に含まれる人物が、記憶部11に記憶されていない新たな人物と同定してもよい。
(更新手段の構成)
更新手段106は、人物同定手段105により人物200の同定が行われた人物領域の特徴量、すなわち顔領域202及び体領域203の特徴量に基づいて、記憶部11の顔情報111及び体情報112を更新する。この「更新」には、人物同定手段105が同定した人物200が記憶部11に記憶されている人物である場合に、当該人物に関連付けられた顔画像及び体画像を別の顔画像及び体画像に変更すること、すなわちデータ更新の他に、人物同定手段105が同定した人物200が記憶部11に記憶されていない新たな人物である場合に、当該新たな人物を含む顔領域202及び体領域203の特徴量に基づいて、新たな人物に関連付けられた顔画像及び体画像並びにこれらの特徴量を顔情報111及び体情報112として追加して記憶部11に記憶することが含まれる。
このようにして、同定された人物200の情報が顔情報111及び体情報112として記憶部11に取り込まれ、すなわち機械学習が行われ、これにより、次の同定を行うときに今回の同定よりも精度よく人物200の同定を行うことができる。
(第1の実施の形態の動作)
次に、人物識別装置1の動作の一例について図2、図3を参照して説明する。図3は、図1に示す人物識別装置1の動作の一例を示すフローチャートである。撮像部12は、人物を撮像し画像20を生成する(S1)。撮像部12は、生成した画像20を受付手段100に渡す。
受付手段100は、撮像部12から渡された画像20を受け付ける(S2)。人物領域検出手段101は、図2に示すように、受付手段100が受け付けた画像20から人物領域201を検出する(S3)。
顔領域情報抽出手段102は、人物領域検出手段101が検出した人物領域201から顔領域202を抽出する(S4)。顔領域情報抽出手段102は、抽出した顔領域202から特徴量を抽出する(S5)。顔領域情報抽出手段102は、抽出した特徴量に基づいて、抽出した顔領域202に含まれる顔画像が顔情報111に含まれる顔画像と一致する確率、すなわち第1の確率P1K(K=1、2、・・・N)を算出する(S6)。
体領域情報抽出手段103は、人物領域検出手段101が検出した人物領域201から体領域203を抽出する(S7)。体領域情報抽出手段103は、抽出した体領域203から特徴量を抽出する(S8)。体領域情報抽出手段103は、抽出した特徴量に基づいて、抽出した体領域203に含まれる体画像が体情報112に含まれる体画像と一致する確率、すなわち第2の確率P2K(K=1、2、・・・N)を算出する(S9)。
情報統合手段104は、上述の第1の確率及び第2の確率を、重み付けを示す各係数w及びwを付与して統合して統合情報F(K=1、2、・・・N)を算出する(S10)。
人物同定手段105は、情報統合手段104が算出した統合情報F(K=1、2、・・・N)に基づいて、人物200を同定する(S11)。
更新手段106は、人物同定手段105により人物200の同定を行われた顔領域202及び体領域203の特徴量に基づいて、記憶部11の顔情報111及び体情報112を更新する(S12)。
以上のように、顔領域202から得られる情報と体領域203から得られる情報のうち、情報量の多い一方の重み付けを大きくし、他方の重み付けを小さくして統合して算出した情報に基づいて人物200を同定することができる。これにより、顔領域202から得られる情報と体領域203から得られる情報とを単に組み合わせて人物200の識別をすることと比較して、精度の高い識別をすることが可能となる。
<変形例>
上述の第1の実施の形態では、情報統合手段104は、顔領域情報抽出手段102が算出した第1の確率P及び体領域情報抽出手段103が算出した第2の確率Pを統合して統合情報Fを算出したが、これに限定されるものではない。
例えば、情報統合手段104は、顔領域情報抽出手段102が抽出した第1の特徴量及び体領域情報抽出手段103が算出した第2の特徴量を統合して第3の特徴量を算出してもよい。この場合、情報統合手段104は、第3の特徴量に応じて、当該人物領域201に含まれる人物が記憶部11に記憶された顔情報111又は体情報112に関連付けられた人物と一致する確率を示す第3の確率を算出してもよい。また、人物同定手段105は、情報統合手段104が算出した第3の特徴量に基づいて人物を同定してもよく、第3の特徴量に応じて算出する第3の確率に基づいて人物を同定してもよい。
[第2の実施の形態]
図4は、本発明の第2の実施の形態に係る人物識別装置1の制御系の一例を示すブロック図である。第1の実施の形態では、撮像部12は、静止画像を取得する機能を有するものであるが、第2の実施の形態では、撮像部12は、動画像を取得する機能を有するものである。以下、第1の実施の形態と異なる点を中心に説明する。
制御部10は、第1の実施の形態で説明した機能に加えて、さらに人物セグメント作成手段107として機能する。人物セグメント作成手段107の詳細については、後述する。
撮像部12は、予め定められた時間間隔で連続的に人物を撮像して、複数の連続的な静止画像(以下、「動画像」ともいう。)を生成する。動画像は、時系列上互いに先後する複数の画像の一例である。
次に、図5、図6、図7を参照して、各手段について第1の実施の形態と異なる点を中心に説明する。
図5は、動画像の一例を示す図である。受付手段100は、撮像部12が生成した動画像2を受け付ける。動画像2は、図5(a)から図5(d)に示すように、複数の画像20(静止画像)を含む。なお、説明の便宜上、図5に示す各画像20は、図5(a)、(b)、(c)、(d)の順に時系列の順番に並べて示している。また、図5では、動画像2が4つの画像20を含む例を図示するが、画像は、2つ、3つ、5つ以上でもよい。
各画像20には、それぞれ3人の人物200A、200B、200Cが含まれる。図5では、それぞれ3人の人物を図示するが、1人、2人でもよく、4人以上でもよい。なお、以下では、人物を区別して説明する必要のない場合は、説明の便宜上、単に「人物200」ともいう。
人物領域検出手段101は、受付手段100が受け付けた動画像2から人物領域を検出する。具体的には、人物領域検出手段101は、動画像に含まれる各画像20のそれぞれから人物領域201A、201B、201Cを検出する。なお、以下では、人物領域を区別して説明する必要のない場合は、説明の便宜上、単に「人物領域201」ともいう。
人物セグメント作成手段107は、人物領域検出手段101が検出した動画像2の人物領域201を抽出して、人物200ごとに時系列の順番に連結した画像3A、3B、3C(図7参照)(以下、「人物セグメント3A、3B、3C」ともいう。)を作成する。人物セグメント3A、3B、3Cは、連結画像の一例である。
図6を参照して具体的に説明する。図6は、人物セグメントの作成の一例を示す図である。図6は、上側に図5(a)から(d)で示した4つの画像20と、この4つの画像20から作成される人物セグメント3Aとを示している。図6は、一例として、各画像20に含まれる人物200のうちの一人の人物200Aについての人物セグメント3Aの作成の例を示している。
図6の矢印に示すように、人物セグメント作成手段107は、人物領域検出手段101が検出した動画像2の人物領域201Aを抽出して、時系列の順番に連結して人物セグメント3Aを作成する。
なお、人物セグメント3A、3B、3Cは、動画像に含まれる画像20の全てを含むものでもよく、動画像に含まれる画像20のうちの一部のみを含むものでもよい。
人物セグメント作成手段107は、人物領域検出手段101が検出した人物領域201A〜201Cがどの人物セグメント3A〜3Cに属するかについて決定する。具体的には、人物セグメント作成手段107は、例えば、異なる画像20において検出された人物領域201間で重なり合う領域、当該人物領域201の中心間の距離、当該人物領域201の特徴量の類似度等に基づいて、人物領域検出手段101が検出した人物領域201A〜201Cがどの人物セグメント3A〜3Cに属するかについて決定する。
人物セグメント作成手段107は、人物領域201に含まれる特定の人物200を追跡することにより、当該人物領域201A〜201Cがどの人物セグメント3A〜3Cに属するかを決定してもよい。
図7は、人物セグメントの一例を示す図である。図7(a)は、図5に示す各画像20に含まれる人物200のうちの一人の人物200Aについての人物セグメント3Aの例を示し、図7(b)は、別の人物200Bについての人物セグメント3Bの例を示し、図7(c)は、さらに別の人物200Cについての人物セグメント3Cの例を示す。以下、人物IDごとに人物セグメントを区別して説明する必要のない場合は、単に「人物セグメント3」ともいう。
顔領域情報抽出手段102は、人物セグメント3に含まれる複数の人物領域201A〜201Cごとにそれぞれ顔領域202A、202B、202C(以下、単に「顔領域202」ともいう。)を抽出し、抽出した複数の顔領域202からそれぞれ特徴量を抽出するとともに、抽出した特徴量に基づいて人物セグメント3に含まれる複数の人物領域201A〜201Cごとに複数の第1の確率を算出する。
また、体領域情報抽出手段103は、人物セグメント3に含まれる複数の人物領域201A〜201Cごとにそれぞれ体領域203A、203B、203C(以下、単に「体領域203」ともいう。)を抽出し、抽出した複数の体領域203からそれぞれ特徴量を抽出するとともに、抽出した特徴量に基づいて人物セグメント3に含まれる複数の人物領域201A〜201Cごとに複数の第2の確率を算出する。
具体的には、人物セグメント3の数をI、人物セグメント3に含まれる人物領域201の数をJとし、人物セグメント3のIDをi(i=1、2、・・・I)、人物領域201のIDをj(j=1、2、・・・J)、記憶部11に記憶された顔情報111又は体情報112に関連付けられた人物の人物IDをKとした場合、顔領域情報抽出手段102は、IDがiの人物セグメント内のIDがjの人物領域における第1の確率P1ijKをそれぞれ算出する。また、体領域情報抽出手段103は、IDがiの人物セグメント内のIDがjの人物領域における第2の確率P2ijKを算出する。なお、図5、図6、図7に示す例では、I=3、J=4である。
情報統合手段104は、第1の実施の形態に示した例の他に、例えば、人物セグメント3に含まれる体領域203の数と顔領域202の数との割合に基づいて、重み付けを示す各係数w、wを設定してもよい。
また、情報統合手段104は、連結される人物領域201の時系列上の時間差に応じて各係数w、wを設定してもよい。
情報統合手段104は、人物セグメント3ごとに統合情報を算出してもよい。具体的には、情報統合手段104は、次の式を用いて、IDがiの人物セグメント3内のIDがjの人物領域201における統合情報FijKを求めてもよい。
ijK=w1ijKxP1ijK+w2ijKxP2ijK
1ijK、w2ijKは、人物セグメント3内の人物領域201ごとに、かつ、人物IDごとに設定された重み付けを示す係数である。このように、情報統合手段104は、人物セグメント3内の人物領域201及び人物IDごとに各係数wijK、wijKを設定してもよい。なお、各係数wijK、wijKは、人物セグメント3、人物領域201等によらずに共通の値としてもよい。
次に、情報統合手段104は、人物セグメント3ごとに統合情報を統計処理する。具体的には、情報統合手段104は、次の式を用いて、人物セグメント3内の人物領域201ごとに求めた各統合情報FijKを平均した人物セグメント3ごとの統合情報FiKを算出する。
iK=(Fi1K+Fi2K+・・・FiJK)/J
i=1、2、・・・I
K=1、2、・・・N
なお、各統合情報FijKを平均することに限定されるものではなく、例えば、中央値、最大値、最小値であってもよい。
人物同定手段105は、情報統合手段104により算出された統合情報FiK(K=1、2、・・・N)のうちの最大値FiM(M=1、2、・・・、N)が予め定められたしきい値以上の場合に、IDがiの人物セグメント3に含まれる人物が、人物K(IDがKの人物)であると同定する。
(第2の実施の形態の動作)
次に、人物識別装置1の動作の一例について図8を参照して説明する。図8は、図4に示す人物識別装置1の動作の一例を示すフローチャートである。撮像部12は、人物を撮像し動画像2を生成する(S20)。撮像部12は、生成した動画像2を受付手段100に渡す。
受付手段100は、撮像部12から渡された動画像2を受け付ける(S21)。人物領域検出手段101は、図5に示すように、受付手段100が受け付けた動画像2に含まれる複数の画像20からそれぞれ人物領域201A〜201Cを検出する(S22)。
人物セグメント作成手段107は、図6に示すように、人物領域検出手段101が検出した人物領域201を人物200A〜200Cごとに連結して人物セグメント3を作成する(S23)。
顔領域情報抽出手段102は、図7に示すように、人物セグメント3に含まれる複数の人物領域201A〜201Cのそれぞれから顔領域202を抽出する。次に、顔領域情報抽出手段102は、抽出した顔領域202からそれぞれ特徴量を抽出し、抽出した特徴量に基づいて、抽出した顔領域202に含まれる顔画像が顔情報111に含まれる顔画像と一致する確率、すなわち第1の確率P1ijK(K=1、2、・・・N)を算出する(S24)。なお、iは、人物セグメント3のID、jは、人物セグメント3に含まれる人物領域201のIDである。
体領域情報抽出手段103は、図7に示すように、人物セグメント3に含まれる複数の人物領域201のそれぞれから体領域203を抽出する。次に、体領域情報抽出手段103は、抽出した体領域203からそれぞれ特徴量を抽出し、抽出した特徴量に基づいて、抽出した体領域203に含まれる体画像が体情報112に含まれる体画像と一致する確率、すなわち第2の確率P2ijK(K=1、2、・・・N)を算出する(S25)。
情報統合手段104は、上述の第1の確率及び第2の確率を、重み付けを示す値wijKを付与して統合して統合情報FijK(K=1、2、・・・N)を算出する。また、情報統合手段104は、各統合情報FijKを平均して人物セグメント3ごとの統合情報FiKを算出する(S26)。
人物同定手段105は、情報統合手段104が算出した人物セグメント3ごとの統合情報FiK(K=1、2、・・・N)に基づいて、人物を同定する(S27)。
更新手段106は、人物同定手段105により人物200A〜200Cの同定を行われた顔領域202及び体領域203の特徴量に基づいて、記憶部11の顔情報111及び体情報112を更新する(S28)。
[実施例]
図7に示すような、人物セグメント3内の人物領域201の数が4つ(J=4)、記憶部11に記憶された顔情報111又は体情報112に関連付けられた人物の数が3つ(N=3)の例において、図7(a)に示す1つの人物セグメント3Aを例に結果の一例を説明する。なお、説明の便宜上、当該人物セグメント3AのID(i)を1とする。また、当該人物セグメント3Aに含まれる4つの人物領域201Aについて、左から順に人物領域のID(j)を1、2、3、4とする。
一例として、以下に示す統合情報F1jK(j=1、2、3、4。K=1、2、3)が得られたとする。なお、以下では、F1jK(K=1、2、3)は、説明の便宜上、{F1j1、F1j2、F1j3}のように中括弧を用いたベクトル表示で記載する。
(1)図7(a)の左端の人物領域201Aの統合情報F11K(K=1、2、3)について
11K={0.1、0.7、0.2}
(2)図7(a)の左端から2番目の人物領域201Aの統合情報F12K(K=1、2、3)について
12K={0.1、0.2、0.3}
(3)図7(a)の左端から3番目の人物領域201Aの統合情報F13K(K=1、2、3)について
13K={0.2、0.3、0.1}K=1、2、3
(4)図7(a)の左端から4番目の人物領域201Aの統合情報F14K(K=1、2、3)について
14K={0.1、0.8、0.1}
この場合、当該人物セグメント3Aの統合情報F1K(K=1、2、3)は、
1K={(0.1+0.1+0.2+0.4)/4、(0.7+0.2+0.3+0.8)/4、(0.2+0.3+0.1+0.1)/4}
={0.125、0.5、0.175}
となる。
上述の例では、K=2の場合に、F1K(K=1、2、3)は、最大値0.5をとる。以上をまとめると、IDが1の人物セグメント3Aに含まれる人物200Aは、記憶部11に記憶された顔情報111及び体情報112に関連付けられたIDが2の人物と同定される。
以上のようにして、動画像においても、顔領域から得られる情報と体領域から得られる情報とを単に組み合わせて人物の識別をすることと比較して、精度の高い識別をすることが可能となる。
<変形例>
情報統合手段104は、顔領域情報抽出手段102が抽出した複数の第1の特徴量及び体領域情報抽出手段103が抽出した複数の第2の特徴量にそれぞれ重み付けを付与して算出して複数の第3の特徴量を抽出してもよい。例えば、情報統合手段104は、各人物セグメント3間での特徴量の類似度や、特徴量の要素同士の差の二乗の合計値(すなわち、「距離」)に応じて、第1の特徴量及び体領域情報抽出手段103が抽出した第2の特徴量を統合して第3の特徴量を抽出してもよい。人物同定手段105は、情報統合手段104により抽出された複数の第3の特徴量に基づいて人物を同定してもよい。
以上、本発明の実施の形態を説明したが、本発明の実施の形態は上記実施の形態に限定されるものではなく、本発明の要旨を変更しない範囲内で種々の変形、実施が可能である。例えば、上記実施の形態では、撮像された画像に含まれる人物が記憶部11に記憶された顔情報111又は体情報112に関連付けられた人物IDを有する人物を同定したが、撮像された画像に含まれる複数のうち特定の人物を他の人物と識別するだけでもよい。
また、顔領域情報抽出手段102は、顔領域202を抽出し、抽出した領域202の特徴量を抽出したが、撮像された画像から顔に関する特徴量を抽出してもよい。また、顔領域情報抽出手段102と同様に、体領域情報抽出手段103は、撮像された画像から体に関する特徴量を抽出してもよい。
制御部10の各手段は、それぞれ一部又は全部を再構成可能回路(FPGA:Field Programmable Gate Array)、特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)等のハードウエア回路によって構成してもよい。
また、本発明の要旨を変更しない範囲内で、上記実施の形態の構成要素の一部を省くことや変更することが可能である。また、本発明の要旨を変更しない範囲内で、上記実施の形態のフローにおいて、ステップの追加、削除、変更、入替え等が可能である。また、上記実施の形態で用いたプログラムをCD−ROM等のコンピュータ読み取り可能な記録媒体に記録して提供することができ、クラウドサーバ等の外部サーバに格納しておき、ネットワークを介して利用することもできる。
1…人物識別装置、2…動画像、3、3A、3B、3B…人物セグメント、10…制御部、11…記憶部、12…撮像部、20…画像、100…受付手段、101…人物領域検出手段、102…顔領域情報抽出手段、103…体領域情報抽出手段、104…情報統合手段、105…人物同定手段、106…更新手段、107…人物セグメント作成手段、110…プログラム、111…顔情報、112…体情報、200、200A、200B、200C…人物、201、201A、201B、201C…人物領域、202、202A、202B、202C…顔領域、203、203A、203B、203C…体領域

Claims (9)

  1. 人物を含む画像のうち人物の顔に関する第1の特徴量及び体に関する第2の特徴量を抽出する抽出手段と、
    抽出された前記第1の特徴量及び前記第2の特徴量にそれぞれ重み付けを付与して算出した第3の特徴量に基づいて前記人物を識別する識別手段と、
    を備えた人物識別装置。
  2. 時系列上互いに先後する複数の画像のうち前記人物を含む人物領域を時系列の順番に連結した連結画像を生成する生成手段をさらに備え、
    前記抽出手段は、前記連結画像から前記人物領域に応じた複数の前記第1の特徴量及び複数の前記第2の特徴量を抽出し、
    前記識別手段は、抽出された前記複数の第1の特徴量及び前記複数の第2の徴量にそれぞれ重み付けを付与して算出した複数の前記第3の特徴量に基づいて前記人物を識別する、
    請求項1に記載の人物識別装置。
  3. 前記識別手段は、前記複数の画像ごとに設定された重み付けを付与して算出した複数の前記第3の特徴量に基づいて前記人物を識別する、
    請求項2に記載の人物識別装置。
  4. 前記識別手段は、連結される前記複数の人物領域の時系列上の時間差に応じて設定された重み付けを付与して算出した前記第3の特徴量に基づいて前記人物を識別する、
    請求項2又は3に記載の人物識別装置。
  5. 人物を識別する識別情報に関連付けて前記第1及び第2の特徴量を記憶する記憶手段と、
    前記抽出手段により抽出された前記第1の特徴量と前記記憶手段に記憶されている前記第1の特徴量に基づいて前記人物を含む画像に前記識別情報を有する特定の人物の顔が含まれる確率を示す第1の評価値を出力するとともに、前記抽出手段により抽出された前記第2の特徴量と前記記憶手段に記憶されている前記第2の特徴量に基づいて前記人物を含む画像に前記特定の人物の体が含まれる確率を示す第2の評価値を出力する出力手段と、をさらに備え、
    前記識別手段は、前記出力手段により出力された前記第1の評価値及び前記第2の評価値にそれぞれ重み付けを付与して算出した第3の評価値に基づいて前記人物を識別する、
    請求項1から4のいずれか1項に記載の人物識別装置。
  6. 前記識別手段は、前記第1の評価値及び前記第2の評価値に基づいて設定された重み付けを付与して算出した前記第3の評価値に基づいて前記人物を識別する、
    請求項5に記載の人物識別装置。
  7. 人物を識別する識別情報に関連付けて、前記人物を含む画像と前記第3の特徴量とを記憶する記憶手段と、
    前記識別手段により算出された前記第3の特徴量に基づいて前記人物を含む画像に前記識別情報を有する特定の人物が含まれる確率を示す評価値を出力する出力手段と、をさらに備え、
    前記識別手段は、前記第1の特徴量及び第2の特徴量にそれぞれ重み付けを付与して算出した第3の特徴量に基づいて前記出力手段により出力された前記評価値に基づいて前記人物を識別する、
    請求項1から4のいずれか1項に記載の人物識別装置。
  8. 前記画像は、複数の人物を含み、
    前記抽出手段は、前記画像のうち前記複数の人物のうち一の人物の顔に関する前記第1の特徴量及び前記特定の人物の体に関する第2の特徴量を抽出し、
    前記識別手段は、前記第1の特徴量及び前記第2の特徴量にそれぞれ重み付けを付与して算出した第3の特徴量に基づいて前記一の人物を識別する、
    請求項1から7のいずれか1項に記載の人物識別装置。
  9. コンピュータを、
    人物を含む画像のうち人物の顔に関する第1の特徴量及び体に関する第2の特徴量を抽出する抽出手段と、抽出された前記第1の特徴量及び前記第2の特徴量にそれぞれ重み付けを付与して算出した第3の特徴量に基づいて前記人物を識別する識別手段と、として機能させるためのプログラム。
JP2017142488A 2017-07-24 2017-07-24 人物識別装置及びプログラム Pending JP2019023785A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017142488A JP2019023785A (ja) 2017-07-24 2017-07-24 人物識別装置及びプログラム
US15/944,995 US10896319B2 (en) 2017-07-24 2018-04-04 Person identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017142488A JP2019023785A (ja) 2017-07-24 2017-07-24 人物識別装置及びプログラム

Publications (1)

Publication Number Publication Date
JP2019023785A true JP2019023785A (ja) 2019-02-14

Family

ID=65018718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017142488A Pending JP2019023785A (ja) 2017-07-24 2017-07-24 人物識別装置及びプログラム

Country Status (2)

Country Link
US (1) US10896319B2 (ja)
JP (1) JP2019023785A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021081965A (ja) * 2019-11-19 2021-05-27 株式会社ARISE analytics 画像処理装置、画像処理方法、及びプログラム
WO2022254787A1 (ja) 2021-06-04 2022-12-08 三菱電機株式会社 人物検索装置、人物検索システム、人物検索方法、および、人物検索プログラム
WO2024018593A1 (ja) * 2022-07-21 2024-01-25 日本電気株式会社 情報処理装置、情報処理システム、情報処理方法、記憶媒体

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10872235B2 (en) * 2018-09-27 2020-12-22 Ncr Corporation Tracking shoppers and employees
US10824868B2 (en) * 2018-09-27 2020-11-03 Ncr Corporation Image processing for determining relationships between tracked objects
CN112149447A (zh) * 2019-06-26 2020-12-29 杭州海康威视数字技术股份有限公司 一种人员识别方法、装置及电子设备
CN110503022A (zh) * 2019-08-19 2019-11-26 北京积加科技有限公司 一种身份识别方法、装置及***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011150497A (ja) * 2010-01-21 2011-08-04 Mitsubishi Electric Corp 人物認証装置、人物認証方法、およびそのソフトウェアプログラム
JP2013210845A (ja) * 2012-03-30 2013-10-10 Secom Co Ltd 移動物体照合装置
WO2014175356A1 (ja) * 2013-04-26 2014-10-30 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
JP2015219797A (ja) * 2014-05-20 2015-12-07 キヤノン株式会社 画像照合装置、画像検索システム、画像照合方法、画像検索方法およびプログラム
JP2017054541A (ja) * 2016-12-05 2017-03-16 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6529630B1 (en) * 1998-03-02 2003-03-04 Fuji Photo Film Co., Ltd. Method and device for extracting principal image subjects
JP4594945B2 (ja) * 2007-02-13 2010-12-08 株式会社東芝 人物検索装置および人物検索方法
JP5203281B2 (ja) 2009-03-31 2013-06-05 綜合警備保障株式会社 人物検出装置、人物検出方法、及び人物検出プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011150497A (ja) * 2010-01-21 2011-08-04 Mitsubishi Electric Corp 人物認証装置、人物認証方法、およびそのソフトウェアプログラム
JP2013210845A (ja) * 2012-03-30 2013-10-10 Secom Co Ltd 移動物体照合装置
WO2014175356A1 (ja) * 2013-04-26 2014-10-30 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
JP2015219797A (ja) * 2014-05-20 2015-12-07 キヤノン株式会社 画像照合装置、画像検索システム、画像照合方法、画像検索方法およびプログラム
JP2017054541A (ja) * 2016-12-05 2017-03-16 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
小松 和朗 外2名: "コンテキスト情報を利用した人物識別の改良と機械学習の適用", 画像の認識・理解シンポジウム(MIRU), JPN6021028936, 20 July 2011 (2011-07-20), pages 2 - 19, ISSN: 0004827014 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021081965A (ja) * 2019-11-19 2021-05-27 株式会社ARISE analytics 画像処理装置、画像処理方法、及びプログラム
WO2022254787A1 (ja) 2021-06-04 2022-12-08 三菱電機株式会社 人物検索装置、人物検索システム、人物検索方法、および、人物検索プログラム
WO2024018593A1 (ja) * 2022-07-21 2024-01-25 日本電気株式会社 情報処理装置、情報処理システム、情報処理方法、記憶媒体

Also Published As

Publication number Publication date
US20190026543A1 (en) 2019-01-24
US10896319B2 (en) 2021-01-19

Similar Documents

Publication Publication Date Title
JP2019023785A (ja) 人物識別装置及びプログラム
KR102415632B1 (ko) 정보처리장치, 정보처리방법 및 기억매체
JP6664163B2 (ja) 画像識別方法、画像識別装置及びプログラム
KR100996066B1 (ko) 얼굴화상 등록 장치, 얼굴화상 등록 방법, 및 기록 매체
KR101390591B1 (ko) 얼굴 화상 검색 시스템 및 얼굴 화상 검색 방법
US8559722B2 (en) Image recognition apparatus and method
JP6921694B2 (ja) 監視システム
JP4444633B2 (ja) 画像分類装置、画像分類方法、および、プログラム
JP6700791B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP5241606B2 (ja) オブジェクト識別装置及びオブジェクト識別方法
WO2020195732A1 (ja) 画像処理装置、画像処理方法、およびプログラムが格納された記録媒体
CN110073363B (zh) 追踪对象的头部
WO2020172870A1 (zh) 一种目标对象的移动轨迹确定方法和装置
WO2020136795A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20070253598A1 (en) Image monitoring apparatus
JP2005149370A (ja) 画像撮影装置、個人認証装置及び画像撮影方法
JP5648452B2 (ja) 画像処理プログラムおよび画像処理装置
KR20220010560A (ko) 이미지 내에서 대상체에 의해 수행되는 동작을 결정하기 위한 시스템 및 방법
US9621505B1 (en) Providing images with notifications
JP2024045460A (ja) 情報処理システム、情報処理装置、情報処理方法、およびプログラム
JP2014064083A (ja) 監視装置及び方法
CN107231519B (zh) 视频处理装置及控制方法
WO2015102711A2 (en) A method and system of enforcing privacy policies for mobile sensory devices
JP2016053868A (ja) 似顔絵画像生成装置、似顔絵画像生成方法及び似顔絵画像生成プログラム
JP2023065024A (ja) 検索処理装置、検索処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220125

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220719