JP6339445B2 - 人物識別装置 - Google Patents
人物識別装置 Download PDFInfo
- Publication number
- JP6339445B2 JP6339445B2 JP2014162468A JP2014162468A JP6339445B2 JP 6339445 B2 JP6339445 B2 JP 6339445B2 JP 2014162468 A JP2014162468 A JP 2014162468A JP 2014162468 A JP2014162468 A JP 2014162468A JP 6339445 B2 JP6339445 B2 JP 6339445B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- identification
- information
- face
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 189
- 238000009434 installation Methods 0.000 claims description 164
- 238000003384 imaging method Methods 0.000 claims description 117
- 238000012545 processing Methods 0.000 claims description 58
- 230000033001 locomotion Effects 0.000 description 109
- 238000000034 method Methods 0.000 description 71
- 230000008569 process Effects 0.000 description 46
- 230000009471 action Effects 0.000 description 41
- 238000004458 analytical method Methods 0.000 description 34
- 230000006399 behavior Effects 0.000 description 28
- 230000001815 facial effect Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 24
- 238000006243 chemical reaction Methods 0.000 description 20
- 230000008921 facial expression Effects 0.000 description 19
- 230000005540 biological transmission Effects 0.000 description 18
- 238000013523 data management Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 239000000284 extract Substances 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 238000012544 monitoring process Methods 0.000 description 6
- 210000000056 organ Anatomy 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 5
- 238000007726 management method Methods 0.000 description 5
- 206010011469 Crying Diseases 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 238000010411 cooking Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 206010013647 Drowning Diseases 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000010418 babysitting Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002618 waking effect Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Landscapes
- Collating Specific Patterns (AREA)
Description
例えば、特許文献1には、顔認証装置を用いた顔認証において、特定のユーザの認証の都度、顔画像データを顔画像データベースに蓄積していき、新たな顔認証の場合は、カメラにより撮像された新たな顔画像データが顔データベースに蓄積されているいずれかの顔画像データに対応する否かを判定し、判定の結果、対応していると認証されたときは、この新たな画像データを顔画像データベースに登録することが記載されている。
また、特許文献2には、ユーザが入場用ゲートに近づくまでにカメラにより撮像されたN枚のユーザの顔画像の複数の特徴量を合成して顔認証に用いる特徴量を生成し、顔認証処理を行うことが記載されている。
特許文献2に記載の顔認証装置も、カメラの設置状態や設置環境が変化する場合には、顔画像の認識精度が低下することがあった。また、カメラの設置場所を変更する場合には、ユーザの操作入力を受け付ける操作入力装置の移設を要するため、設置場所の変更には適さない。また、認証を行う際にユーザの操作入力が要求されるため、ユーザに対する利便性が損なわれていた。
以下、図面を参照しながら本発明の第1の実施形態について詳しく説明する。
本実施形態に係る人物識別装置11は、内蔵された撮像装置が撮像した画像から検出した人物の位置、行動の情報を認識し、認識した情報を撮像装置が設置された宅内又は遠隔地に設置された情報表示端末装置21に送信する。送信された情報は、見守り、子守り、侵入者の監視、防犯、その他のセキュリティ管理、宅内における電子機器の監視、制御、等、様々な用途に用いることができる。しかし、本発明の実施形態は、これらの用途を必ずしも必須の構成とするものではない。
次に、本実施形態に係る人物識別装置11を応用した見守りシステムについて説明する。
図1は、本発明の第1の実施形態に係る人物識別装置11を用いた見守りシステムの一例の概念図である。この見守りシステムは、人物識別システム1(後述)の一形態であり、4台の人物識別装置11と2台の情報表示端末装置21を含んで構成される。4台の人物識別装置11は、それぞれ人物識別装置11−1〜11−4と呼ぶことにより区別され、2台の情報表示端末装置21は、それぞれ情報表示端末装置21−1、21−2と呼ぶことにより区別することがある。
人物識別装置11(11−1〜11−4)は、それぞれ撮像した映像を表す映像データと、認識した認識情報を情報表示端末装置21に送信する。人物識別装置11が送信するデータは、認識情報のみでもよいし、映像データのみでもよいし、その両方でもよい。
情報表示端末装置21は、人物識別装置11から映像データ及び認識情報を受信し、受信した映像データが表す映像や認識情報を表示する表示部を備える。これにより、ユーザは、人物の検出の有無、検出された人物である在室者の状態を把握することができる。
なお、各撮像装置の垂直方向の位置及び向きについては、人物識別装置11−1〜11−4が天井に接するように設置された場合、光学軸が水平方向から所定角度(例えば、30°または真下を示す90°)だけ下向きであればよい。また、人物識別装置11−1〜11−4が床に接するように設置された場合、光学軸が水平方向から所定角度(例えば、30°)だけ上向きであればよい。さらに、人物識別装置11−1〜11−4がテーブルや棚などの設置物上等、人の身長程度の高さに設置された場合、光学軸が水平となるように設置されてもよい。なお、人物識別装置11−1が、廊下の角のうち、玄関の対角に設置されているのは、玄関から入室する入室者を確実に撮影するためである。
その他、人物識別装置11−1は、玄関からの入室者を検出し、検出した入室者が予め登録した登録者であるか否かを判定し、入退出の時刻や登録者であるか否かを示す情報を検出した入室者の認識情報に含めてもよい。これにより、見守り者1、2は、予め登録した登録者の外出、帰宅の有無、それらの時刻を把握することができる。また、人物識別装置11−1は、未登録者である不審者の入室が検出された場合、直ちにその旨を示す認識情報を情報表示端末装置21−2に伝送してもよい。人物識別装置11−1は、さらに、認識情報に追加して不審者の入室を検出した前後の時間に収録された映像を示す映像データを伝送してもよい。
また、人物識別装置11−1は、人物識別装置11−1〜11−4でそれぞれ取得された認識情報を組合せ、見守り者や不審者がいつどの部屋をどのような順序で移動したかを示す情報(入退出の時刻や、どの登録者であるかまたは登録者であるか否かを示す情報など)を検出した入室者の認識情報に含めてもよい。
また、人物識別装置11の個数は、4台に限られず、3台以下であってもよいし、5台以上であってもよい。人物識別装置11の位置は、これに限られたものではなく、洗面所や浴室、屋外の車庫、庭園、等、見守りが必要と考えられる場所であれば、屋内、屋外を問わず、いかなる位置であってもよい。
次に、本実施形態に係る人物識別システム1の構成について説明する。
図2は、本実施形態に係る人物識別システム1の構成を示すブロック図である。
人物識別システム1は、人物識別装置11−1〜11−4、情報表示端末装置21−1、21−2、及びサーバー装置31を含んで構成される。人物識別装置11−1〜11−4、情報表示端末装置21−1、21−2、及びサーバー装置31は、ネットワーク41に接続され互いにデータを送信及び受信することができる。
LANは、例えば、IEEE(Institute of Electrical and Electronics Engineers)802.3、IEEE802.11、IEEE802.15.1等、いずれの通信規格で規定された方式でもよい。
サーバー装置31は、統合顔識別DB(DB:Database)を記憶した記憶部を備える。統合顔識別DBについては、後述する。
WANは、公衆通信網、インターネット、あるいはそれらの組み合わせであってもよい。公衆通信網は、光回線、ADSL(Asymmetric Digital Subscriber Line)などの固定網でもよいし、IMT−2000(International Mobile Telecommunication 2000)、LTE−Advanced(Long Term Evolution Advanced)などの移動網でもよい。
これにより、いずれかの情報表示端末装置、例えば、情報表示端末装置21−2のユーザである見守り者2には、人物識別装置11−1〜11−4から離れた遠隔地に所在する場合であっても、認識情報や映像が伝達される。
また、人物識別装置11は、映像を表示する表示部に接続され、情報表示端末装置21から受信した映像データを表示部に出力してもよい。これにより、人物識別装置11と情報表示端末装置21との間で双方向の映像通信(いわゆる、テレビ電話)が可能になる。人物識別装置11に接続される表示部は、ディスプレイ単体でもよいし、ディスプレイが組み込まれた電子機器、例えば、テレビジョン受信装置、携帯電話機(スマートフォンを含む)、タブレット端末装置、パーソナルコンピュータ、などでもよい。
人物識別装置11は、撮像された映像から、画像処理によって人物の顔の特徴量を抽出し、人物の顔を識別する。人物識別装置11は、顔映像から算出した両目や鼻、口の位置情報、顔の輪郭情報などの特徴量を算出し、基本顔識別DBに予め登録しておいた、これらの特徴量と比較して、算出した特徴量と高い類似度を示す特徴量を検索することにより、撮像した人物がどの登録者であるか識別することができる。人物識別装置11は、例えば、基本顔識別DBの特徴量と算出した特徴量の類似度として、同一の顔の部位を表す特徴量(例えば目の位置)間の差分を特徴量毎に算出し、それらの差分が最小となる基本顔識別DB上の人物を撮影映像上の人物であると判定する。人物識別装置11は、識別した人物を示す情報を含む認識情報を、情報表示端末装置21−1、21−2に送信する。なお、人物の顔を識別する方法は、上述した方法に限定されず、人の顔を識別できる方法であれば、特徴量または類似度の算出方法はどのような方法が用いられてもよい。
次に、本実施形態に係る人物識別装置11の構成について説明する。
図3は、本実施形態に係る人物識別装置11の構成を示すブロック図である。
人物識別装置11は、撮像部110、映像解析部111、情報DB120、データ変換部130、伝送制御部140、及び設置情報取得部150を含んで構成される。
また、映像解析部111は、映像データを解析する際、さらに、設置情報取得部150から入力された設置情報を参照してもよい。映像解析部111は、設置情報を認識情報に付加してデータ変換部130に出力してもよい。
伝送制御部140は、データ変換部130から入力されたデータブロックを、ネットワーク41を介して情報表示端末装置21に送信する。なお、伝送制御部140は、データブロックを、人物識別装置11に内蔵又は人物識別装置11に接続された記憶媒体(図示せず)に記憶してもよい。この記憶媒体は、光学ディスク、HDD(Hard−Disk Drive)、半導体メモリ、等のいずれでもよい。伝送制御部140は、例えば、通信インタフェース、データ入出力インタフェースである。
また、設置情報取得部150は、撮像部110の周囲、例えば被写範囲の明るさを検知する輝度センサを備えてもよいし、撮像部110から入力された映像データに基づいて明るさを検知してもよい。設置情報取得部150は、撮像部110の周囲の天候を検知する気象センサ、気温を計測する温度センサ、湿度を計測する湿度センサ、等を備えてもよい。これらのセンサで検出された信号は、設置情報を示す。
なお、設置情報取得部150は、これらの設置情報を他の機器から入力されてもよいし、ユーザによる操作入力に応じて入力されてもよい。
次に、本実施形態に係る映像解析部111の構成について説明する。
図4は、本実施形態に係る映像解析部111の構成を示すブロック図である。
映像解析部111は、ユーザ情報検出部112、モーション検出部113、行動認識部114、人物検出部115、及び動きベクトル検出部116を含んで構成される。
また、映像解析部111は、検出した人物が行っている行動、例えば、ジェスチャ等のモーションを検出し、検出した行動を表す情報を認識情報の一部としてデータ変換部130に出力し、情報DB120に記憶する。映像解析部111の機能構成については、後述する。
次に、動きベクトル検出部116が行う処理について説明する。
動きベクトル検出部116は、撮像部110から入力された現在の映像データが示す映像と、情報DB120から読み取った所定のフレーム数の過去の映像データが示す映像から、被写体が動いた領域を検出する。動きベクトル検出部116は、撮像ユニット毎に現在のフレームの画素毎の画素値と、過去のフレームの対応する画素の画素値との差分値が予め定めた閾値よりも大きい領域を、動いた領域として検出する。動きベクトル検出部116は、検出した動いた領域と、その領域の重心座標、移動量ならびに移動方向(動きベクトル)を追跡情報(動きベクトル情報)として、人物検出部115及びモーション検出部113に出力する。また、動きベクトル検出部116は、これらの情報を認識情報としてデータ変換部130に出力してもよいし、情報DB120に記憶してもよい。
次に、人物検出部115が行う処理について説明する。
人物検出部115は、撮像部110から入力された映像データと、動きベクトル検出部116から入力された動きベクトル情報とに基づいて検出された人物の顔面の画像を表す領域を検出する。顔の検出に成功した場合に、人物検出部115は、人物が室内に入室したと判定する。
人物検出部115は、検出した領域における代表点(例えば、重心点)の2次元座標や、その領域の上端、下端、左端、右端の2次元座標を表す2次元顔面領域情報を生成する。なお、撮像部110が複数の撮像ユニットを備える場合には、撮像ユニット毎に2次元顔面領域情報を生成し、生成した2次元顔面領域情報が示す2次元座標を組合せ、室内の3次元空間座標系の3次元座標に変換して、3次元の顔位置情報を生成してもよい。顔面の領域を検出するために、人物検出部115は、例えば予め設定した顔面の色彩(例えば、肌色)を表す色信号値の範囲にある画素を、入力された画像信号から抽出する。
その他、人物検出部115は、入力された画像信号に基づいて顔の特徴量(例えば、Haar−Like特徴量)を算出し、算出した特徴量に基づいて機械学習(例えば、Adaboostアルゴリズム)を行い、学習したデータベースと入力映像の特徴量から顔面の領域を検出してもよい。人物検出部115が顔面の領域を検出する方法は、上述の方法に限られず、入力された映像データから顔面の領域を検出する方法であれば、いかなる方法を用いてもよい。また、映像中に人物がいる場合でも、必ずしも顔が撮影されるとは限らないため、動きベクトル検出部116から入力される動きベクトル情報を用いて、動いた領域に人物がいると判定してもよい。さらに、顔面の領域情報と動きベクトルを組み合わせて人物を検出してもよい。動きベクトル情報と顔面の領域情報とを照合しながら、検出した人物を追跡し、次のフレームでの人物検出精度の向上や顔検出範囲を特定することにより計算量の削減が可能となる。
また、人物を検出する方法は、顔を検出する方法だけに限られない。人物検出部115は、HOG(Histograms of Oriented Gradients)を用いて、人物の身体のシルエットを特徴量として抽出し、抽出した特徴量を学習(例えばAdaboostアルゴリズムやSVMなど)することによって、人物を識別してもよい。
また、人物検出部115は、情報DB120に予め記憶した特徴量データを参照して、入力された映像データから、顔が表されている顔領域と、その顔の向いている向きを検出してもよい。ここで、情報DB120には、各方向(上、下、横、等)を向いた顔を表す映像から算出した特徴量を示す特徴量データを記憶しておく。
人物検出部115は、検出又は識別した人物の顔に関する情報を人物情報として、ユーザ情報検出部112およびモーション検出部113に出力する。また、人物検出部115は、映像データが示す映像から顔が検出された領域を抽出し、この抽出した領域の映像を示す切出映像データをユーザ情報検出部112およびモーション検出部113に出力する。
なお、上述の切出映像データとなる映像を抽出した領域は、その映像に検出された顔領域が含まれるように抽出されていればよく、抽出した領域の大きさは、例えば、人物の身体全体が含まれる大きさのように、どのような大きさであってもよい。人物検出部115は、人物情報及び切出映像データを検出情報としてデータ変換部130、行動認識部114に出力し、情報DB120に記憶してもよい。また、人物検出部115は、人物情報に、算出した特徴量を人物情報に含めて出力することにより、ユーザ情報検出部112での処理に利用できるようにしてもよい。
次に、ユーザ情報検出部112の構成について説明する。
ユーザ情報検出部112は、属性推定部1120、表情推定部1121、人物識別部1122、位置検出部1123、及び人体部位検出部1124を含んで構成される。この構成により、ユーザ情報検出部112は、ユーザである撮像された人物の状態を検出し、検出した人物の状態を示す検出情報として後述する情報を行動認識部114に出力する。検出情報には、後述するように人体の特徴量を示す特徴量情報が含まれることがある。
表情推定部1121は、人物検出部115から入力された切出映像データから情報DB120に予め記憶された特徴量データを参照し、人物情報が示す人物の表情、例えば、笑い、泣き、怒り、等を推定する。表情の推定に先立ち、前述の属性推定部1120と同様に、表情毎に顔の特徴量を予め分類して学習データベースを生成しておく。表情推定部1121は、映像から抽出した特徴量とこれら学習データベースに含まれる特徴量との類似度を算出することによって、表情を推定する。表情推定部1121は、推定した表情を示す表情情報を行動認識部114に出力する。
人体部位検出部1124は、撮像部110から入力された映像データが示す映像から人体の部位(頭、腕、手、足、胴体、等)の表示領域を検出する。人体部位検出部1124は、検出した部位毎の表示領域に基づいて、部位毎の代表点(例えば、重心点)を位置として算出し、大きさ(長さ、幅、等)を算出する。人体の部位の検出を行う際、人体部位検出部1124は、前述の人物検出部115と同様に、人体の各部位毎に前述のHOG特徴量を算出し、各部位毎に学習を行うことで、入力映像が表す人体の一部分が人体のどの部位に属するかの推定を行う。人体部位検出部1124は、定めた部位毎の位置と大きさを示す人体部位情報を行動認識部114に出力する。
次に、モーション検出部113が行う処理について説明する。
モーション検出部113は、撮像部110から入力される複数の映像データと、人物検出部115から入力される人物情報と、動きベクトル検出部116から入力される動きベクトル情報から、検出した人のモーション(動作、行動)を検出する。例えば、モーション検出部113は、人物情報から求めた顔の3次元位置情報が示す鉛直方向の座標が、予め定めた閾値の座標よりも高い位置を示す場合、その人物が立っていると判定する。
また、情報DB120に人物毎に特徴量データと身長を示す身長情報を対応付けて予め記憶しておき、モーション検出部113は、識別情報が示す人物の身長情報を情報DB120から読み取り、読み取った身長情報が示す身長と撮像部110の位置に基づいて、立っていると判断するための顔の3次元座標の範囲を設定してもよい。モーション検出部113は、設定した範囲内に顔の位置が含まれるか否かにより、その人物が立っているか否かを判定することができる。
なお、モーション検出部113は、上述したモーションに限られず、その他のモーションを検出してもよいし、これらのモーションの組み合わせを検出してもよい。
次に、行動認識部114が行う処理について説明する。
行動認識部114は、撮像部110から入力された映像データ、ユーザ情報検出部112もしくは人物検出部115から入力された検出情報、モーション検出部113から入力されたモーション情報に基づいて、検出された人物の行動を認識する。行動認識部114は、認識した行動を示す認識情報を情報DB120に記憶し、認識情報にユーザ情報検出部112から入力された検出情報を付加して認識情報としてデータ変換部130に出力する。また、行動認識部114は、撮像部110から入力された映像データをデータ変換部130に出力する。
また、情報表示端末装置21に、行動認識部114が判定した行動を示す認識情報が送信されることで、情報表示端末装置21の表示部にその行動が表示される。これにより、例えば、見守り者が、室内の人物の有無やその行動を把握することができる。
また、行動認識部114は、判定した行動を示す認識情報を、ネットワーク41に接続された所定のサーバー装置31に記憶してもよい。そして、情報表示端末装置21は、サーバー装置31から、任意の時点で入力された操作入力に応じてサーバー装置31から認識情報を読み取り、読みとった認識情報を表示部に出力してもよい。
例えば、行動認識部114が、見守り者が関心を有する領域として、浴室や洗濯機設置室を被写範囲に含む映像データに基づいて判定した、小児の行動が情報表示端末装置21に表示される。見守り者である保護者は、その行動を把握することで閉じ込めや溺れ事故を予防することができる。また、保護者は、調理台でのコンロやストーブのいたずらの有無を把握することで、火災を未然に防ぐことができる。
次に、情報DB120に記憶される基本顔識別DBについて説明する。
図5は、基本顔識別DBの一構成例を示す概念図である。
図5に示す基本顔識別DBは、1人の人物(登録者ID1)の基本顔識別DBである。基本顔識別DBには、各人物について撮像部110の方向を基準とした顔の向き毎の特徴量を示すデータから形成されている。ユーザ情報検出部112は、例えば、前述の画像処理を用いて撮像部110が撮像した映像から顔の特徴量を算出し、算出した特徴量を情報DB120に記憶する。特徴量として、例えば、検出された人物の顔から特定された目、鼻、口等の器官の領域について、それらの領域間もしくは特徴点の位置関係等を示すデータが含まれる。撮像部110の撮影方向が固定されている場合であっても、撮像部110と被写体である人物の向きとの関係は、必ずしも一定しておらず、常に変化する可能性がある。そのため、これらの位置関係を表す特徴量を予め登録しておき、人物識別部1122は、人物を識別する際、登録した特徴量に基づいて位置関係による類似度を判定してもよい。これにより、人物識別装置11をいかなる場所に設置されても一定の認識精度が保たれる。
なお、図1に示すように、宅内において人物識別装置11を各部屋に固定して設置することは、室内の美観、設置のための労力、家具等の設置物の移動による撮像環境の変化を鑑みると、不都合なことがある。人物識別装置11は、必ずしも恒常的に利用されるのではなく、一時的に利用されることがある。例えば、訪問介護において、介護士が介護者宅において、介護者を直接目視で介護できない場合(例えば、清掃中)に、人物識別装置11を応用することが考えられる。例えば、図1の和室にいる在室者1の映像を人物識別装置11−2が取得し、見守り者1が、情報表示端末装置21−1が表示する認識情報、映像を確認しながら清掃をする場合などである。かかる利用状況を想定すると、人物識別装置11は簡便に設置でき、一時的な移動や、手足やその他の物体が接触することにより設置位置が変わっても問題なく利用できる方が、利用者の利便性が向上することがある。
設置状態に応じた顔識別DBは、人物毎に基本顔識別DBと対応付けて形成されている。図6に示す例は、それぞれの登録者IDに対応付けて、左方に基本顔識別DB、右方に設置位置に応じた顔識別DBを並べて示すものである。右方に示す顔識別DBは、所定の鉛直方向の位置よりも高い位置(例えば、天井)に撮像部110が設置され、上方から斜め下方に撮像した在室者を表す映像を用いて生成した設置状態に応じた顔識別DBである。顔の向きは、それぞれ上方からの正面、少し左向き(弱左)、少し右向き(弱右)、大きく左向き(強左)、大きく右向き(強右)である。ユーザ情報検出部112は、顔の向き毎に撮影された映像から顔の特徴量を算出し、算出した特徴量を情報DB120に記憶することで、設置状態に応じた顔識別DBが形成される。また、顔の向きは、これには限定されず、顔の器官が表される方向であれば、いかなる方向について得られた映像データから算出された特徴量が用いられてもよい。また、顔の向きは、各人物について少なくとも1つあればよく、いくつあってもよい。また、特徴量を算出するために用いる映像データは、他の撮像装置で撮像された映像データであってもよい。また、右方に示す設置状態に応じた顔識別DBの特徴量は、左方に示す基本顔識別DBに基づいて生成されうる。
なお、人物の識別の成否は、算出した特徴量に対応する特徴量が、基本顔識別DBまたは設置状態に応じた顔識別DBに記憶されている特徴量に存在するか否かによって判定される。算出した特徴量に対応する特徴量とは、例えば、算出した特徴量と記憶されている特徴量との類似性を示す指標値が、予め定めた指標値の閾値よりも類似性が高いことを示す特徴量である。
このように、撮像部110と人物との位置関係の例として、上方から見た顔の向き、位置、表情、等の設置状態に応じた特徴量から形成された設置状態に応じた顔識別DBが形成される。この設置状態に応じた顔識別DBを用いることで、設置状態に応じた顔画像に係る特徴量を用いて人物の識別が行えるため、人物識別率が向上する。
上述では、在室者が1人の場合の基本顔識別DBと設置状態に応じた顔識別DBの登録について説明したが、在室者は1人とは限らず、複数人の場合もある。
図7は、設置状態に応じた顔識別DBの他の構成例を示す概念図である。
図7は、在室者の登録者数が複数人(n0人、n0は1よりも大きい整数)の場合の顔識別DBを示している。1行目の登録者ID1については、前述と同様である。2行目に示す2人目の登録者(登録者ID2)は、登録者ID1の顔識別DBに続けて登録者ID2の基本顔識別DBと、設置状態に応じた顔識別DBとが対応付けて登録されている。同様に3人目以降の登録者IDのそれぞれについて順次、基本顔識別DBと、設置状態に応じた顔識別DBとが対応付けて登録される。
図7に示すように、設置状態に応じた顔識別DBが、どの登録者IDの在室者についても上方と表されているは、撮像部110が天井等、床面よりも十分に高い位置に設置され、在室者の映像を見下ろすように撮影したためである。また、登録者ID毎に顔の向きが異なるのは、登録者毎に自動登録される顔の向きや位置、タイミングが様々となるためである。
次に、本実施形態に係る人物識別処理について説明する。人物識別処理には、認識情報伝送処理と顔識別DB登録処理が含まれる。
図8は、本実施形態に係る人物識別処理を示すフローチャートである。
(ステップS102)撮像部110は、映像を撮影し、映像解析部111は、撮像部110から現在の映像を表す映像データと、情報DB120から過去の映像を表す映像データを取得する。その後、ステップS103に進む。
人物検出部115は、撮像部110から取得された映像データと動きベクトル検出部116から入力された動きベクトルを用いて、映像データが表す映像から人物の画像を表す領域を検出する。人物検出部115は、検出した人物の顔に関する情報を人物情報として、ユーザ情報検出部112及びモーション検出部113に出力する。
なお、人物検出部115が行う処理が動きベクトル検出部116が行う処理よりも先に行われてもよいし、両処理が同時に行われてもよい。その後、ステップS104に進む。
(ステップS106)行動認識部114は、撮像部110から入力された映像データ、ユーザ情報検出部から入力された検出情報、モーション検出部113から入力されたモーション情報に基づいて、検出された人物の行動に関する行動情報を認識する。行動認識部114は、認識した行動情報と入力された検出情報を認識情報としてデータ変換部130に出力する。その後、ステップS107に進む。
(ステップ107)ユーザ情報検出部112の人物識別部1122は、識別した人物と同じ人物を示す登録者IDに対応付けられた顔識別DBを情報DB120から検索し、検索した顔識別DBから設置状態に応じた顔識別DBを読み出す。次に、ステップS108に進む。
(ステップS112)伝送制御部140は、データ変換部130から入力されたブロックデータを、ネットワーク41を介して情報表示端末装置21に送信する。伝送制御部140が現在の映像データから検出された認識情報の全てを伝送し終えた後、ステップS113に進む。
また、ステップS108における設置位置に応じた顔識別DB内に登録されている顔の特徴量と対応するか否かの判定には、顔の位置や向きの他、顔の大きさや撮影映像の明るさ、顔の色合い、解像度など、異なる撮影状況や環境の要素が考慮されてもよい。
次に、本発明の第2の実施形態に係る人物識別システム1a(図示せず)について説明する。上述した実施形態と同一の構成については、同一の符号を付して説明を援用する。
人物識別システム1aは、人物識別システム1(図2)において、人物識別装置11に代えて人物識別装置11aを備え、サーバー装置31は、次に説明する統合顔識別DBを記憶している。
図9は、本実施形態に係る統合顔識別DBの一構成例を示す概念図である。
本実施形態に係る統合顔識別DBも、図2に示す統合顔識別DBと同様に登録者IDと対応付けた基本顔識別DBと、設置状態に応じた顔識別DBの組を含んで形成される。但し、図9に示す設置状態に応じた顔識別DBは、個々の人物識別装置11aの設置状態に応じた顔識別DBを含んで形成される。個々の人物識別装置11aには、カメラIDが割り当てられ、それぞれの人物識別装置11aの設置状態に応じた顔識別DBは、そのカメラIDと対応付けられている。
カメラIDは、それぞれの人物識別装置11aに接続された撮像部110の識別情報である。なお、以下の説明では、それぞれの人物識別装置11aの設置状態に応じた顔識別DBを個別顔識別DBと呼ぶことがある。また、個別顔識別DBから形成される設置状態に応じた顔識別DBを全体顔識別DBと呼ぶことがある。図9に示す全体顔識別DBは、それぞれのカメラIDと対応付けられた個別顔識別DBを含む点で、図7に示す設置位置に応じた顔識別DBとは異なる。
また、同一のカメラIDで指定される撮像部110であっても、設置位置や向きが異なる場合は、それぞれ個別顔識別DBも異なることになる。そのため、同一の登録者ID及び同一のカメラIDについて、設置位置や向き等の設置状態がそれぞれ異なる個別顔識別DBが含まれるように全体顔識別データが形成されてもよい。
次に、サーバー装置31に記憶される顔識別DB情報について説明する。顔識別DB情報は、人物識別装置11aに対応する顔識別DBを形成する顔識別DBを検索する際に、統合顔識別DBに含まれる個々の顔識別DBにアクセスするための管理情報である。
図10の左欄は、顔識別DB情報の先頭から格納されるデータの順序と内容を示す。格納される情報は、いずれもバイナリ形式のデータである。格納する各情報(以下、フィールド)には、先頭から順に登録者エントリ数、1人目の登録者(0)の顔識別DB情報、2人目の登録者(1)の顔識別DB情報の順に記録され、登録者エントリ数(n+1人)分の情報が記録される。また、各行について、フィールド名、サイズ、内容は、それぞれデータの名称、そのデータの情報量(単位:Byte)、内容は、そのデータが表す事物を示す。
図10の左欄第2行のフィールドに格納された登録者エントリ数は、統合顔識別DBに登録された顔識別DBのエントリ数(登録者数を表す)を示す。エントリ数の記録領域は1Byteの固定長であり、0から255までのいずれかの値が格納される。
(登録者ID)
1人目の登録者エントリの第1行のフィールドに格納された登録者IDは、登録者毎にユニーク(一意)に割り当てたIDを示す。この登録者IDによって人物が区別される。登録者IDの記録領域は1Byteの固定長であり、0から255までのいずれかの値が格納される。
(オフセットエントリ数)
1人目の登録者エントリの第2行のフィールドに格納されたオフセットエントリ数は、後述する顔識別DB情報オフセットのエントリ数である。オフセットエントリ数の記憶領域は、1Byteの固定長であり、0から255までのいずれかの値が格納される。図10に示す例では、オフセットエントリ数は、m0+1個である。
1人目の登録者エントリの第3行のフィールドに格納された顔識別DB情報オフセットは、登録者IDの顔識別DBにアクセスするための情報や付加情報が格納されている各顔識別DB情報へアクセスするための情報である。顔識別DB情報オフセットのエントリである各オフセット情報は、顔識別DB情報の先頭(登録者エントリ数フィールドの先頭)からアクセス先の各顔識別DB情報へのオフセット値が格納され、登録者IDに基づきアクセス先の各顔識別DB情報を特定することが可能になる。顔識別DB情報オフセットにおいて、オフセットを算出する基準の位置は、顔識別DB情報の先頭に限定されるものではなく、顔識別DB情報の末尾など予め定めた基準位置であれば、いかなる位置であってもよい。顔識別DB情報オフセットの記憶領域は、1エントリ当たり2Byteであり、オフセットエントリ数分の領域からなる可変長領域である。1エントリには、0から65535までのいずれかの値が格納される。
(カメラID)
オフセット情報が指している第1行のフィールドに格納されたカメラIDは、人物識別装置又は撮像部110にユニークに割り当てられた固有のIDである。例えば、カメラIDが0とは基本顔識別DBに関する情報であることを示し、カメラIDが1以上の値とは、設置状態に応じた顔識別DBに関する情報であることを示す。カメラIDの記憶領域は、1Byteの固定長であり、0から255までのいずれかの値が格納される。
オフセット情報が指している第2行のフィールドに格納された付加情報エントリ数は、顔識別DBにアクセスするための付加情報である後述する顔識別データ管理情報のエントリ数である。付加情報エントリ数の記憶領域は、1Byteの固定長であり、0から255までのいずれかの値が格納される。
(顔識別データ付加情報)
オフセット情報が指している第3行のフィールドに格納された顔識別データ付加情報は、個々の顔識別DBに付加される付加情報である顔識別データ管理情報である。顔識別データ付加情報の記憶領域は、1エントリ当たり26Byteであり、付加情報エントリ数分の領域からなる可変長領域である。
次に、顔識別データ管理情報の一例について説明する。
図11は、顔識別データ管理情報の一例を示す図である。
また、図12は、顔の向き、カメラの向き、撮影環境の例を示す図である。
顔識別データ管理情報は、顔の向き、顔位置x、y、顔サイズ横、顔サイズ縦、顔の大きさ横、顔の大きさ縦、顔との距離、顔の明るさ、カメラの向き、カメラ位置、撮影環境、顔識別データアドレス、及び顔識別データサイズを含んで形成される。
第2行のフィールドに格納された顔の向きは、人物識別装置11aの撮像部110であるカメラに対する人物の顔の向きを表すIDである。顔の向きの記憶領域は、1Byteの固定長であり、0から255までの値が格納される。格納されるIDは、図12(a)に示すIDのいずれかである。例えば、IDが0とは正面、IDが1とは右向きを示す。なお、顔の向きの種類はこれに限定されるものではなく、カメラと顔の関係を表すものであればどのようなものであってもよい。
第3行のフィールドに格納された顔位置xは、撮像部110から入力された映像データ(撮影画像)から算出された顔の位置を示す水平方向の座標(x座標)である。顔位置xの記憶領域は、2Byteの固定長であり、0から65535までの値が格納される。
(顔位置y)
第4行のフィールドに格納された顔位置yは、撮像部110から入力された映像データ(撮影画像)から算出された顔の位置を示す垂直方向の座標(y座標)である。顔位置yの記憶領域は、2Byteの固定長であり、0から65535までのいずれかの値が格納される。
第5行のフィールドに格納された顔サイズ横は、撮像部110から入力された映像データ(撮影画像)における顔領域の水平方向(横方向)の大きさ(幅)をピクセル数で表した値である。顔サイズ横の記憶領域は、2Byteの固定長であり、0から65535までのいずれかの値が格納される。
(顔サイズ縦)
第6行のフィールドに格納された顔サイズ縦は、撮像部110から入力された映像データ(撮影画像)における顔領域の垂直方向(縦方向)の大きさ(高さ)をピクセル数で表したものである。顔サイズ縦の記憶領域は、2Byteの固定長であり、0から65535までのいずれかの値が格納される。
第7行のフィールドに格納された顔の大きさ横は、撮像部110から入力された映像データ(撮影画像)が表す人物の顔の水平方向(横方向)の大きさ(幅)を表す値(例えば、単位はcm)である。顔の大きさ横の記憶領域は、1Byte固定長であり、0から255までのいずれかの値が格納される。
(顔の大きさ縦)
第8行のフィールドに格納された顔の大きさ縦は、撮像部110から入力された映像データ(撮影画像)が表す人物の顔の垂直方向(縦方向)の大きさ(高さ)を表す値(例えば、単位はcm)である。顔の大きさ縦の記憶領域は、1Byteの固定長であり、0から255までのいずれかの値が格納される。
第9行のフィールドに格納された顔との距離は、撮像部110(カメラ)と被写体である人物の顔との距離を表す値(例えば、単位はcm)である。顔との距離の記憶領域は、2Byte固定長であり、0から65535までのいずれかの値が格納される。
(顔の明るさ)
第10行のフィールドに格納された顔の明るさは、撮像部110から入力された映像データが示す撮像画像上の顔領域の平均輝度値である。撮像画像を形成するピクセル毎の輝度値が1Byteで表現されている場合、顔の明るさの記憶領域は、1Byte固定長であり、0から255までのいずれかの値が格納される。なお、顔の明るさの記憶領域の大きさは、必ずしも1Byteに限られず、ピクセル毎の輝度値の情報量に応じて定められてもよい。また、撮像画像がカラー画像である場合には、色信号値の種類毎に顔の明るさの記憶領域が設けられてもよい。
第11行のフィールドに格納されたカメラの向きは、水平方向に対する人物識別装置11aの撮像部110であるカメラの向きを示すIDである。カメラの向きの記憶領域は、1Byteの固定長であり、0から255までのいずれかの値が格納される。格納されるIDは、図12(b)に示すIDのいずれかである。例えば、IDが0とは、水平方向に対し平行(水平)を表し、IDが1とは、水平方向に対し下向きなど、水平方向に対するカメラの向きを表す。なお、カメラの向きの種類はこれに限定されるものではなく、カメラの向きを表すものであればどのようなものであってもよい。さらに、カメラの向きの基準方向は水平方向に限られず、垂直方向や斜め方向など、カメラの向きが一意に特定できれば、どのような向きが基準であってもよい。
なお、人物識別装置11aは、加速度センサやジャイロセンサなどの水平方向に対するカメラの向きを検出するセンサを備え、センサが検出した向きを示す情報が格納されてもよい。また、ユーザの操作入力により指示されたカメラの向きが格納されてもよい。
第12行のフィールドに格納されたカメラ位置は、人物識別装置を設置した床面からの高さを示すカメラの設置情報(例えば、単位はcm)を示す。カメラ位置の記憶領域は、2Byteの固定長であり、0から65535までのいずれかの値が格納される。なお、カメラ位置の基準は床に限定されるものではなく、天井や台など、人物識別装置11aの設置位置が一意に特定できれば、どのような位置が基準であってもよい。
なお、人物識別装置11aは、GPSなどの3次元のカメラ位置を検出するセンサを備え、センサが検出した位置を示す情報が格納されてもよい。また、人物識別装置11aは、ユーザの操作入力により指示されたカメラ位置を格納してもよい。
第13行のフィールドに格納された撮影環境は、人物識別装置が撮影する周囲の状態を示すフラグを示す。撮影環境の記憶領域は、1Byteの固定長であり、ビットごとに、異なる撮影環境の要素が示される。例えば、0ビット目のビット値0が屋内、ビット値1が屋外であることを示す。1ビット目のビット値0が明るい状態、ビット値1が暗い状態であることを示す。2ビット目のビット値0が降雨なし、ビット値1が降雨ありを示す。格納されるフラグは、図12(c)に示すビット位置毎の値のいずれかである。フラグはビットごとに設定できるため、2種類以上の撮影環境の要素を同時に設定することが可能である。なお、撮影環境の種類はこれに限定されるものではなく、気温、湿度、気圧、天気などであってもよい。
なお、撮影環境の検出は、人物識別装置11aは、映像データから撮影環境を判定する処理部、明るさセンサ、降雨センサなどの周囲の環境をセンシングする各種センサを備え、取得された情報が格納されてもよい。また、ユーザの操作入力により指示された情報が格納されてもよい。
第14行のフィールドに格納された顔識別データアドレスは、基本顔識別DBや、特定のカメラIDに対応した設置状態に応じた顔識別DBに記録されている1つの顔の特徴量へアクセスするためのアドレスまたはオフセット値を示す。顔識別データアドレスの記憶領域は、4Byteの固定長であり、0から0xFFFFFFFFまでのいずれかの値が格納される。
(顔識別データサイズ)
第15行のフィールドに格納された顔識別データサイズは、基本顔識別DBや、特定のカメラIDに対応する設置状態に応じた顔識別DBに記録されている1つの顔の特徴量のサイズを示す。顔識別データサイズの記憶領域は、4Byteの固定長であり、0から0xFFFFFFFFまでのいずれかの値を格納する。
なお、これら付加情報である顔識別データ管理情報の一部又は全部として、人物識別装置11aのユーザ情報検出部112において検出された検出情報、設置情報取得部150において取得された設置情報が充てられてもよい。
次に、人物識別装置11aの構成について説明する。
図13は、本実施形態に係る人物識別装置11aの構成を示すブロック図である。
人物識別装置11aは、撮像部110、映像解析部111、情報DB120、データ変換部130、伝送制御部140、設置情報取得部150及び顔識別DB処理部121aを含んで構成される。
サーバー装置31は、顔識別DB処理部121aから受信した設置状態に対応した顔識別DBを、カメラID、登録者IDと対応付けて、上述した領域に格納することにより統合顔認識DBを更新する。
上述したように、設置状態に対応した顔識別DBは、映像解析部111の人物識別部1122が人物の識別に成功した場合、識別に用いられた特徴量が算出されたその人物の特徴量に置き換えられることにより、更新される。顔識別DB処理部121aにより、情報DB120に格納された顔識別DBと、統合顔認識DBに含まれる顔識別DBとが整合する。
なお、送信対象の顔識別DBは、情報DB120に登録された顔識別DBの全体でもよいし、設置状態に応じた顔識別DB内の更新された特徴量のみであってもよい。これにより、更新に必要なデータ量と更新時間とを削減することができる。
自装置の顔識別DBを更新又は再構築する場合、顔識別DB処理部121aは、カメラIDを付加した顔識別DB要求信号をサーバー装置31に送信する。サーバー装置31は、人物識別装置11aから受信した顔識別DB要求信号に付加されたカメラIDに対応した顔識別DBを統合顔識別DBから抽出し、抽出した顔識別DBを人物識別装置11aに送信する。これにより、顔識別DB処理部121aは、自装置の顔識別DBをダウンロードすることができる。
図14が示す顔識別DBは、図9に示す統合顔識別DBのうち、カメラIDが1である人物識別装置11aのカメラID1に対応する部分から形成される。登録者数は、n2名であり、各登録者IDに基本顔識別DBと設置位置に応じた顔識別DBとが対応付けられている。
設置位置に応じた顔識別DBを形成する特徴量に対応する向きは、全て上方である。これは、カメラIDの向きが人物に対して上方であることによる。
ここで、サーバー装置31は、統合顔識別DB(図9)からカメラID1に対応する設置位置に対応した顔識別DBが存在する登録者IDを検索する。サーバー装置31は、発見された登録者IDに対応する基本顔識別DBと設置位置に応じた顔識別DBを抽出する。登録者ID毎に基本顔識別DBと設置位置に応じた顔識別DBの組を対応付けることで、人物識別装置11aに記憶された顔識別DBが再現される。
これにより、人物識別装置11aは、一旦取り外された場合や移設(移動)などの後、再度設置された場合でも、取り外しや移設(移動)前の顔識別DBを利用できるため、即座に、取り外しや移設(移動)前と同じ認識精度にて人物識別処理を開始することが可能となる。また、前述の統合顔識別DBから人物識別装置11aにダウンロードされた顔識別DBは、カメラID1を例にしたが、別のカメラIDに係る人物識別装置11aにおいても同様に形成される。さらに、人物識別装置11aにダウンロードされた顔識別DBは、複数の人物識別装置11a間で共通の基本顔識別DBと、それぞれの人物識別装置11aの撮像部110の設置状態に応じた顔識別DBから形成される。
顔識別DBは、更新されたものであっても、登録者IDが同一であれば、複数の人物識別装置11a間で共通の基本顔識別DBと、それぞれの人物識別装置11aの撮像部110の設置状態に応じた顔識別DBから形成される。
次に、本実施形態に係る人物識別装置11aが行う人物識別処理について説明する。
図15は、本実施形態に係る人物識別処理を示すフローチャートである。
図15に示す処理は、ステップS102からS113と、ステップS201−S203を有する。
そして、ステップS102からステップS112までの処理を実行し、ステップS112の処理が終了した後、ステップS202に進む。
次に、本実施形態の第3の実施形態に係る人物識別システム1b(図示せず)について説明する。上述した実施形態と同一の構成について同一の符号を付することにより、説明を援用する。
人物識別システム1bは、人物識別システム1aと同様に、人物識別装置11a、情報表示端末装置21、及びサーバー装置31を含んで構成される。サーバー装置31は、上述した統合顔識別DBを記憶している。
人物識別装置11aの顔識別DB処理部121aは、サーバー装置31から受信した顔識別DBを、その登録者IDと対応付けて設置状態に応じた顔識別DBとして情報DB120に記憶する。
その場合、サーバー装置31は、人物識別装置11aから受信した付加情報が示す顔の向きが上方であることを特定する。サーバー装置31は、上方に対応する特徴量を有する設置状態に応じた顔識別DBとして、登録者ID1及びカメラID1及びカメラID3、登録者ID2及びカメラID1及びカメラID3に対応付けられたものを選択し、人物識別装置11aに送信する。これにより、選択した設置状態に応じた顔識別DBとして、登録者ID1及びカメラID1及びカメラID3、登録者ID2及びカメラID1及びカメラID3に対応付けられたものが人物識別装置11aにダウンロードされる。なお、サーバー装置31は、前記選択した設置状態に応じた顔識別DBのうち、登録者ID1、ID2のいずれか一方に対応するものを送信してもよいし、人物識別装置11aから受信した登録者IDと一致する登録者IDに対応するもののみを送信してもよい。さらに、サーバー装置31は、前記選択した設置状態に応じた顔識別DBのうち、カメラID1、ID3のいずれか一方に対応するものを送信してもよい。
これにより、人物識別装置11aの情報DB120には、撮像部110の向きに応じた顔識別DBが再現される。
さらに、人物識別装置11aは、設置中であっても他の物体と接触した場合、脱落した場合等、撮像部110の位置や向きが変化することがあり、人物識別における識別率が低下することがある。
また、上述ではサーバー装置31が、人物識別装置11aの撮像部110と人物との位置関係に対応する顔識別DBの全てを送信すべきものとして選択する場合を例にとったが、これには限られない。例えば、サーバー装置31は、上述により選択された顔識別DBにおいて、人物識別装置11aから受信した差分情報で指定される特徴量に対応した特徴量のみを人物識別装置11aに送信してもよい。そして、顔識別DB処理部121aは、差分情報で指定された特徴量をサーバー装置31から受信した特徴量に置き換えることにより、情報DB120に記憶した顔識別DBを更新する。これにより、更新に必要なデータ量と更新時間とを削減することができる。
なお、映像解析部111は、撮像部110から入力された映像データに代え、記憶媒体に記憶された映像データや、ネットワーク41に接続された任意のサーバー装置に記憶された映像データを用いてもよい。
(1)少なくとも1つの撮像部が撮像した映像から前記映像が表す人物を検出する人物検出部と、前記映像から算出した特徴量に基づいて前記人物の状態を検出する情報検出部と、を備え、前記情報検出部は、前記特徴量と予め第1の識別データベースに登録された特徴量とに基づいて人物を識別し、人物の識別に成功したとき、前記特徴量を第2の識別データベースに登録する人物識別装置。
また、上述した実施形態における人物識別装置の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現しても良い。人物識別装置の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化しても良い。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いても良い。
また、本発明の各構成要素は、任意に取捨選択することができ、取捨選択した構成を具備する発明も本発明に含まれるものである。
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
11、11a(11−1〜11−4)…人物識別装置、
110…撮像部、111…映像解析部、112…ユーザ情報検出部、
1120…属性推定部、1121…表情推定部、1122…人物識別部、
1123…位置検出部、1124…人体部位検出部、
113…モーション検出部、114…行動認識部、115…人物検出部、
116…動きベクトル検出部、
120…情報DB、121a…顔識別DB処理部、
130…データ変換部、140…伝送制御部、150…設置情報取得部、
21(21−1、21−2)…情報表示端末装置、31…サーバー装置、
41…ネットワーク
Claims (5)
- 少なくとも1つの撮像部が撮像した映像から前記映像が表す人物を検出する人物検出部と、
前記映像から算出した特徴量に基づいて前記人物の状態を検出する情報検出部と、を備え、
前記情報検出部は、前記特徴量と予め第1の識別データベースに登録された特徴量とに基づいて人物を識別し、
人物の識別に成功したとき、前記特徴量を第2の識別データベースに登録する人物識別装置。 - 前記情報検出部は、
さらに前記第2の識別データベースに登録された特徴量を用いて人物を識別する請求項1に記載の人物識別装置。 - 前記情報検出部は、
前記撮像部の設置状態を示す設置情報を取得し、
人物の識別に成功し、かつ、前記算出した特徴量との間で前記第2の識別データベースに登録された前記人物の特徴量のうち、顔に関する特徴量の少なくとも1つが対応していない場合、前記算出した特徴量と前記設置情報とを前記第2の識別データベースに対応づけて登録する請求項1または2に記載の人物識別装置。 - 前記第1の識別データベースと前記第2の識別データベースの少なくとも一方の識別データベースと、前記撮像部の識別情報とを対応付けてサーバー装置に送信する識別データベース処理部、を備え、
前記識別データベース処理部は、前記撮像部の識別情報に対応する少なくとも一方の識別データベースを、前記サーバー装置から受信する請求項1から3のいずれか一項に記載の人物識別装置。 - 前記識別データベース処理部は、前記撮像部と前記人物との位置関係が対応する特徴量を含む少なくとも一方の識別データベースを前記サーバー装置から受信する請求項4に記載の人物識別装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014162468A JP6339445B2 (ja) | 2014-08-08 | 2014-08-08 | 人物識別装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014162468A JP6339445B2 (ja) | 2014-08-08 | 2014-08-08 | 人物識別装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018091740A Division JP2018120644A (ja) | 2018-05-10 | 2018-05-10 | 識別装置、識別方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016038774A JP2016038774A (ja) | 2016-03-22 |
JP6339445B2 true JP6339445B2 (ja) | 2018-06-06 |
Family
ID=55529783
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014162468A Active JP6339445B2 (ja) | 2014-08-08 | 2014-08-08 | 人物識別装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6339445B2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7142420B2 (ja) * | 2017-07-10 | 2022-09-27 | キヤノン株式会社 | 画像処理装置、学習方法、学習済モデル、画像処理方法 |
CN107481380B (zh) * | 2017-08-30 | 2023-07-18 | 宜昌市微特电子设备有限责任公司 | 一种带人脸及指纹生物特征识别的起重安全监控***及其控制方法 |
JP7257765B2 (ja) | 2018-09-27 | 2023-04-14 | キヤノン株式会社 | 情報処理装置、認証システムおよびそれらの制御方法、プログラム |
KR102200686B1 (ko) * | 2019-11-29 | 2021-01-08 | 박민식 | 안면인식 및 인식표 기반의 병원 관리 시스템 및 방법 |
WO2021111631A1 (ja) * | 2019-12-06 | 2021-06-10 | 株式会社Plasma | 分析装置、分析方法及びプログラム |
CN115803790A (zh) * | 2020-07-10 | 2023-03-14 | 松下电器(美国)知识产权公司 | 行动识别装置、行动识别方法以及程序 |
CN113215772A (zh) * | 2021-04-30 | 2021-08-06 | 合肥美菱物联科技有限公司 | 一种支持身份识别的洗衣机智能控制***及方法 |
WO2023281743A1 (ja) * | 2021-07-09 | 2023-01-12 | 日本電気株式会社 | 認証システム、認証装置、認証方法、及び記録媒体 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2949555B2 (ja) * | 1994-03-31 | 1999-09-13 | 富士通電装株式会社 | 指紋認識用辞書登録更新方法 |
JP2002236665A (ja) * | 2001-02-09 | 2002-08-23 | Matsushita Electric Ind Co Ltd | 個人認証装置 |
JP4153691B2 (ja) * | 2001-11-06 | 2008-09-24 | 株式会社東芝 | 顔画像照合装置及び顔画像照合方法 |
JP2006085289A (ja) * | 2004-09-14 | 2006-03-30 | Fuji Photo Film Co Ltd | 顔認証システムおよび顔認証方法 |
JP2009245338A (ja) * | 2008-03-31 | 2009-10-22 | Secom Co Ltd | 顔画像照合装置 |
JP5507334B2 (ja) * | 2010-05-14 | 2014-05-28 | 本田技研工業株式会社 | 登録装置、登録方法及びコンピュータプログラム |
-
2014
- 2014-08-08 JP JP2014162468A patent/JP6339445B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016038774A (ja) | 2016-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018120644A (ja) | 識別装置、識別方法およびプログラム | |
JP6339445B2 (ja) | 人物識別装置 | |
JP6411373B2 (ja) | 認識データ伝送装置、認識データ記録装置及び認識データ記録方法 | |
Kwolek et al. | Improving fall detection by the use of depth sensor and accelerometer | |
CN110535732B (zh) | 一种设备控制方法、装置、电子设备及存储介质 | |
JP4594945B2 (ja) | 人物検索装置および人物検索方法 | |
US8644614B2 (en) | Image processing apparatus, image processing method, and storage medium | |
CN110647797B (zh) | 一种访客检测方法及装置 | |
JP4797517B2 (ja) | 監視装置および方法、並びにプログラム | |
Jansi et al. | Detection of fall for the elderly in an indoor environment using a tri-axial accelerometer and Kinect depth data | |
JP6757009B1 (ja) | コンピュータプログラム、対象物特定方法、対象物特定装置及び対象物特定システム | |
JP2012208610A (ja) | 顔画像認証装置 | |
WO2013069565A1 (ja) | 撮影記録装置 | |
JP2019049978A (ja) | 通信端末、通信システム、画像処理方法、及びプログラム | |
JP6941950B2 (ja) | 画像提供システム、画像提供方法、および画像提供プログラム | |
JP2017091552A (ja) | 行動検知装置および行動検知方法ならびに被監視者監視装置 | |
JP2024045460A (ja) | 情報処理システム、情報処理装置、情報処理方法、およびプログラム | |
JP6572629B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN112052765A (zh) | 一种具有防护功能的老年人智能家具及其控制方法 | |
JP5989505B2 (ja) | メッセージ管理装置、メッセージ提示装置、メッセージ提示システム、メッセージ管理装置およびメッセージ提示装置の制御方法、制御プログラム、および記録媒体 | |
WO2019150954A1 (ja) | 情報処理装置 | |
US20220319232A1 (en) | Apparatus and method for providing missing child search service based on face recognition using deep-learning | |
CN115118536B (zh) | 分享方法、控制设备及计算机可读存储介质 | |
JP2005199373A (ja) | コミュニケーション装置及びコミュニケーション方法 | |
WO2020208917A1 (ja) | 身体機能管理システム、及び、身体機能管理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170323 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180322 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180410 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180510 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6339445 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |