JP7098180B2 - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
JP7098180B2
JP7098180B2 JP2020166856A JP2020166856A JP7098180B2 JP 7098180 B2 JP7098180 B2 JP 7098180B2 JP 2020166856 A JP2020166856 A JP 2020166856A JP 2020166856 A JP2020166856 A JP 2020166856A JP 7098180 B2 JP7098180 B2 JP 7098180B2
Authority
JP
Japan
Prior art keywords
subject
image data
unit
information processing
recognizing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020166856A
Other languages
English (en)
Other versions
JP2021170307A (ja
Inventor
尚史 柳原
慶一 横山
アドナン モスタファ サブリ モタズ
ヤシン メクトビ
カンキン オウ
Original Assignee
株式会社Ridge-i
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Ridge-i filed Critical 株式会社Ridge-i
Publication of JP2021170307A publication Critical patent/JP2021170307A/ja
Application granted granted Critical
Publication of JP7098180B2 publication Critical patent/JP7098180B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。
従来から、人物を追跡する装置が存在する。特許文献1に記載された技術は、複数のカメラで撮像される画像に基づいて人物を検出すると共に、その人物の位置座標を演算して、その人物の軌跡を追跡する。
特許4970195号公報
特許文献1に記載された技術は、人物を追跡している。しかし、特許文献1に記載された技術は、複数の人物が行き交う場所では、人物同士の重なりによってそれぞれの人物を特定できない可能性がある。また特許文献1に記載された技術では、撮影方向が異なる複数のカメラそれぞれで撮像を行う場合、複数のカメラ間では同一の人物を特定することができない可能性がある。
本発明は、被写体を検出して、その被写体の動きを追跡することが可能な情報処理装置、情報処理方法及び情報処理プログラムを提供することを目的とする。
一態様の情報処理装置は、被写体が記録される画像データに基づいて、被写体の特徴を取得する取得部と、取得部によって取得された特徴に基づいて画像データ上の被写体を特定して、被写体の移動を追跡する特定部と、特定部によって追跡される被写体に関する情報を出力するよう出力部を制御する出力制御部と、を備え、取得部は、画像データに基づいて取得した被写体の容姿を認識すること、画像データに基づいて取得した被写体の服装を認識すること、画像データに基づいて取得した被写体の関節位置と互いに隣接する関節位置の長さを認識すること、及び、画像データ上の被写体の歩容を認識することのうち、少なくとも1つに基づいて被写体の特徴を取得する。
一態様の情報処理装置は、被写体を撮像して画像データを生成する、異なる位置に配される複数のカメラ部を備え、特定部は、取得部によって複数のカメラ部のうちの1つのカメラ部としての第1カメラ部で生成された画像データとしての第1画像データに基づいて被写体の特徴を取得した場合、その被写体の特徴を利用して、第1画像データに記録される被写体、及び、第1カメラ部を除く他のカメラ部で生成された画像データとしての第2画像データに記録される被写体を特定することとしてもよい。
一態様の情報処理装置では、取得部は、画像データに基づいて取得した被写体の容姿を認識すること、画像データに基づいて取得した被写体の服装を認識すること、画像データに基づいて取得した被写体の関節位置と互いに隣接する関節位置の長さを認識すること、及び、画像データ上の被写体の歩容を認識することに基づいて被写体の特徴を取得し、認識した数が所定数以上の場合、同一の被写体として特定することとしてもよい。
一態様の情報処理装置では、取得部は、画像データに基づいて取得した被写体の容姿を認識すること、画像データに基づいて取得した被写体の服装を認識すること、画像データに基づいて取得した被写体の関節位置と互いに隣接する関節位置の長さを認識すること、及び、画像データ上の被写体の歩容を認識することのそれぞれに対して重み付けを設定し、重み付けが相対的に重く設定されたら認識事項を優先して被写体の特徴を取得することとしてもよい。
一態様の情報処理装置では、取得部は、被写体の全体の特徴を学習することに応じて生成された学習モデルと、画像データとに基づいて、被写体の全体の特徴を取得するグローバル・ブランチと、被写体の局所的な特徴を学習することに応じて生成された学習モデルと、画像データとに基づいて、被写体の局所的な特徴を取得するローカル・ブランチと、を備えることとしてもよい。
一態様の情報処理装置では、出力部は、表示部であり、出力制御部は、特定部によって特定される被写体に対して所定の態様の情報を対応付けて、被写体と所定の態様の情報とを表示するよう表示部を制御することとしてもよい。
一態様の情報処理装置では、出力制御部は、所定の態様の情報として被写体の移動の軌跡を示す画像を、その被写体の移動に応じて表示するよう表示部を制御することとしてもよい。
一態様の情報処理方法では、コンピュータが、被写体が記録される画像データに基づいて、被写体の特徴を取得する取得ステップと、取得ステップによって取得された特徴に基づいて画像データ上の被写体を特定して、被写体の移動を追跡する特定ステップと、特定ステップによって追跡される被写体に関する情報を出力するよう出力ステップを制御する出力制御ステップと、を実行し、取得ステップは、画像データに基づいて取得した被写体の容姿を認識すること、画像データに基づいて取得した被写体の服装を認識すること、画像データに基づいて取得した被写体の関節位置と互いに隣接する関節位置の長さを認識すること、及び、画像データ上の被写体の歩容を認識することのうち、少なくとも1つに基づいて被写体の特徴を取得することとしてもよい。
一態様の情報処理プログラムは、コンピュータに、被写体が記録される画像データに基づいて、被写体の特徴を取得する取得機能と、取得機能によって取得された特徴に基づいて画像データ上の被写体を特定して、被写体の移動を追跡する特定機能と、特定機能によって追跡される被写体に関する情報を出力するよう出力機能を制御する出力制御機能と、を実現させ、取得機能は、画像データに基づいて取得した被写体の容姿を認識すること、画像データに基づいて取得した被写体の服装を認識すること、画像データに基づいて取得した被写体の関節位置と互いに隣接する関節位置の長さを認識すること、及び、画像データ上の被写体の歩容を認識することのうち、少なくとも1つに基づいて被写体の特徴を取得する。
一態様の情報処理装置は、画像データに基づいて被写体の特徴を取得し、取得された特徴に基づいて画像データ上の被写体を特定して、被写体の移動を追跡し、追跡される被写体に関する情報を出力する。この場合、上述した情報処理装置は、画像データに基づいて取得した被写体の容姿を認識すること、画像データに基づいて取得した被写体の服装を認識すること、画像データに基づいて取得した被写体の関節位置と互いに隣接する関節位置の長さを認識すること、及び、画像データ上の被写体の歩容を認識することのうち、少なくとも1つに基づいて被写体の特徴を取得する。これにより、情報処理装置は、被写体を検出して、その被写体の動きを追跡することが可能である。
一態様の情報処理方法及び情報処理プログラムは、上述した一態様の情報処理装置と同様の効果を奏することができる。
一実施形態に係る情報処理装置について説明するためのブロック図である。 カメラ部によって得られる画像の一例について説明するための図である。 複数のカメラ部で得られる画像の一例について説明するための図である。(A)は第1カメラ部で得られる画像の一例を示す図であり、(B)は第2カメラ部で得られる画像の一例を示す図である。 被写体に対する所定の態様の情報、及び、被写体の移動の軌跡について説明するための図である。 複数のカメラ部が配される場合の、被写体に対する所定の態様の情報、及び、被写体の移動の軌跡について説明するための図である。(A)は第1カメラ部で得られる画像の一例を示す図であり、(B)は第2カメラ部で得られる画像の一例を示す図である。 一実施形態に係る情報処理方法について説明するためのフローチャートである。 ResNetのConvolution層の一例について説明するための図である。 取得部(ResNet)の一例について説明するための図である。
以下、本発明の一実施形態について説明する。
本明細書では、「情報」の文言を使用しているが、「情報」の文言は「データ」と言い換えることができ、「データ」の文言は「情報」と言い換えることができる。
図1は、一実施形態に係る情報処理装置1について説明するためのブロック図である。
情報処理装置1は、カメラ部15で被写体101を撮像することにより画像データが生成された場合、例えば、その画像データに記録される被写体101を認識する等により、被写体101の特徴を取得する。なお、この場合、情報処理装置1には、被写体101(人物個人)を特定する情報が予め記憶されてなく、カメラ部15で生成される画像データに基づいて初めて被写体101(人物個人)を認識する。これにより、情報処理装置1は、ある人物と他の人物とを判別することが可能になる。
情報処理装置1は、人物を認識することにより、複数のカメラ部15で異なる位置を撮像する場合でも、1つのカメラ部15で生成される画像データに記録される被写体101を認識すると(例えば、被写体Aとして認識すると)、その被写体101が移動して、他のカメラ部15で生成される画像データにその被写体101が記録されると被写体Aとして認識する。
次に、情報処理装置1について詳細に説明する。
図1に示すように、情報処理装置1は、カメラ部15、記憶部16、通信部17、表示部18、取得部12、特定部13及び出力制御部14を備える。取得部12、特定部13及び出力制御部14は、情報処理装置1の制御部11(例えば、演算処理装置等)の一機能として実現されてもよい。
図2は、カメラ部15によって得られる画像の一例について説明するための図である。
カメラ部15は、被写体101を撮像して画像データを生成する。カメラ部15は、複数あり、それぞれ異なる位置に配されてもよい。すなわち、複数のカメラ部15は、異なる位置を撮像するように配されてもよい。また、複数のカメラ部15は、同じ位置に配されて、異なる方向を撮像するようになっていてもよい。複数のカメラ部15の撮像範囲は、一部が重なっていてもよく、重なっていなくともよい。具体的な一例として、1つのカメラ部15は部屋の入口付近を撮像し、他のカメラ部15は部屋の内部(室内)を撮像することとしてもよい。カメラ部15は、動画を撮影して画像データ(動画データ)を生成してもよい。又は、カメラ部15は、時間的に連続して又は所定時間毎に静止画を撮影して画像データ(静止画データ)を生成してもよい。
記憶部16は、例えば、種々の情報及びプログラム等を記憶する装置である。記憶部16は、カメラ部15によって生成された画像データを一時的又は非一時的に記憶することとしてもよい。
通信部17は、情報処理装置1の外部にある装置(例えば、サーバ等)(図示せず)との間で情報の送受信が可能な装置である。
表示部18は、例えば、文字及び画像等を表示することが可能な装置である。
取得部12は、画像データに基づいて被写体101として人物を認識し、被写体101の特徴を取得する。情報処理装置1は、被写体101(人物)の特徴を取得することにより、人物個人を識別することが可能になる。
取得部12は、カメラ部15によって生成された画像データに基づいて被写体101(人物)を認識するばかりでなく、情報処理装置1の外部に配される外部カメラ(図示せず)によって生成された画像データに基づいて被写体101(人物)を認識することとしてもよい。また、取得部12は、情報処理装置1の外部に配される記憶装置(例えば、サーバ等)(図示せず)に蓄積される画像データを取得し、その画像データに基づいて被写体101(人物)を認識することとしてもよい。
図7は、ResNetのConvolution層の一例について説明するための図である。
取得部12は、人物を認識する場合に、例えば、ResNet(Residual Network)を利用する。
従来のニューラルネットワークは、例えば、入力層と出力層との間に複数のConvolution層及びPooling層を備え、最終のConvolution層と出力層との間に結合層を備える。ニューラルネットワークは、Convolution層及びPooling層で求める最適な出力を学習するため、Convolution層及びPooling層を増やすことにより、より高度で複雑な特徴を抽出することができる。
ResNetは、図7に例示するように、ある1つのConvolution層Aの出力と、そのConvolution層Aへの入力とを後段のConvolution層Bが学習する。すなわち、ResNetは、例えば、層の入力を参照した残差関数を学習する。これにより、ResNetは、従来のニューラルネットワークよりも適切な出力を行うことができる。
図8は、取得部12(ResNet)の一例について説明するための図である。
図8に例示するように、取得部12は、ResNetを利用するブランチ(グローバル・ブランチ121及びローカル・ブランチ122))が並列に複数配され、各ブランチの出力が1つに結合されて、画像の推定結果を出力する。並列に配される複数のブランチは、例えば、3つであることが好ましい。実験の結果、並列に配される複数のブランチの数が4つ以上の場合、並列数が3つに比べて、出力の精度が劇的に向上しない。また、実験の結果並列に配される複数のブランチの数が2つ以下の場合、並列数が3つに比べて、出力の精度が向上しない。このため、実験の結果では、並列に配される複数のブランチは、例えば、3つであることが好ましい。
なお、本実施形態は、入力画像中の人を推定しているが、入力画像において推定する物体に応じて、最適なブランチの並列数が変わる可能性がある。このため、本実施形態は、入力画像中の種々の物体を推定することとしてもよく、この場合には、並列に配されるブランチの数を、実験等を行うことにより求めてもよい。すなわち、本実施形態では、1又は複数のブランチが並列に配されることとしてもよい。
本実施形態の取得部12では、ResNetを利用する、並列に配される3つのブランチは、1つのグローバル・ブランチ121(広域ブランチ)と、複数(少なくとも2つ)のローカル・ブランチ122(局所ブランチ)とを備える。
グローバル・ブランチ121は、被写体101(例えば、人物等)全体の特徴(被写体101(人物)の粗い特徴)を抽出する。このため、グローバル・ブランチ121は、例えば、被写体101全体の特徴(グローバル情報)を学習する。すなわち、グローバル・ブランチ121は、被写体101(例えば、人物等)の全体の特徴を学習することに応じて生成された学習モデルと、画像データとに基づいて、被写体101(例えば、人物等)の全体の特徴を取得する。この際、グローバル・ブランチ121は、損失関数(一例として、ソフトマックス(softmax)損失及びトリプレット(triplet)損失)が最小になるように学習を行う。
ソフトマックス損失は、入力画像の分類に影響を与えるため、損失が少ないほど入力画像(人物)の識別性能が向上する。
トリプレット損失は、入力画像を分類する際の計量に影響を与えるため、損失が少ないほど計量性能が向上する。ここで、トリプレット損失は、被写体101全体の画像におけるアンカー画像、正例画像及び負例画像それぞれの特徴ベクトル間の距離に関する損失である。ここで、正例画像に記録される人物は、アンカー画像に記録される被写体101である。負例画像に記録される人物は、アンカー画像に記録される被写体101とは異なる。
ローカル・ブランチ122は、被写体101(例えば、人物等)の局所的で細かい特徴を抽出する。このため、複数のローカル・ブランチ122は、それぞれ粒度の異なる特徴を学習する。すなわち、ローカル・ブランチ122は、被写体101(例えば、人物等)の局所的な特徴を学習することに応じて生成された学習モデルと、画像データとに基づいて、被写体101(例えば、人物等)の局所的な特徴を取得する。本実施形態の場合、ローカル・ブランチ122は、2つであってもよい。1番目のローカル・ブランチ122は、例えば、被写体101(例えば、人物等)の細かい部分の特徴を学習する。また、2番目のローカル・ブランチ122は、例えば、被写体101(例えば、人物等)の肩、肘、足首等のより細かい身体の一部を学習する。ここで、各ローカル・ブランチ122では、被写体101全体が記録された画像をストライプ化して(一例として、人物全体の画像の水平方向に沿って分割した水平ストライプを利用して)学習する。グローバル情報のストライプ化を行うことにより、ストライプ毎の特徴がより明確になる、すなわち、被写体101(例えば、人物等)の局所的な特徴がより明確になる。この際、2つのローカル・ブランチ122それぞれは、損失関数(一例として、ソフトマックス(softmax)損失)が最小になるように学習を行う。
取得部12は、並列に配される3つのResNet、すなわち、グローバル・ブランチ121及び2つのローカル・ブランチ122それぞれに1つの画像を入力させることにより、被写体101(例えば、人物等)の特徴を正確に抽出することができる。取得部12は、例えば、画像に記録される被写体101と背景とを区別して、その被写体101の特徴を抽出することができる。その場合に、取得部12は、3つのブランチそれぞれで得られる特徴に基づいて、被写体101を特定(識別)することができる。例えば、異なるカメラで撮像された画像それぞれを取得部12のResNetに通すことにより、それぞれの画像に記録される被写体101が同一か否かをより正確に判定することができる。
なお、本実施形態のResNetを実際に作製し、従来のニューラルネットワークを利用した人物の判定技術と比較すると、本実施形態のResNetは、従来の技術に比べて優れていること(より正確に被写体101(例えば、人物等)の推定ができること)を確認した。
上述した実施形態では、2つのローカル・ブランチ122が配される例について説明したが、この例に限定されることはない。例えば、ローカル・ブランチは122、1つ以上あってもよい。
取得部12は、上述したResNetを利用して、後述するように被写体101の特徴を取得する。すなわち、取得部12は、被写体101が記録される画像データに基づいて、被写体101の特徴を取得する。取得部12は、例えば、後述する(1)~(4)の認識のうち、少なくとも1つに基づいて被写体101の特徴を取得することとしてもよい。例えば、取得部12は、(1)画像データに基づいて取得した被写体101の容姿を認識すること、(2)画像データに基づいて取得した被写体101の服装を認識すること、(3)画像データに基づいて取得した被写体101の関節位置と互いに隣接する関節位置の長さを認識すること、及び、(4)画像データ上の被写体101の歩容を認識することのうち、少なくとも1つを行う。
取得部12は、カメラ部15によって被写体101の撮像が開始された場合、具体的には図2に例示するように、部屋の出入口を撮像するカメラ部15によって、その部屋に入ってきた被写体101の撮像が開始された場合、その被写体101が記録される画像データに基づいて被写体101の認識を行い、被写体101の特徴を取得する。
取得部12は、カメラ部15で生成された画像データに基づく画像(例えば、1又は複数のフレーム又は静止画等)のうち、被写体101の認識を行いやすい(又は、最も行いやすい)画像Aに基づいて被写体101の認識を行ってもよい。この場合、取得部12は、被写体101の認識に利用された画像Aを記憶部16に記憶することとしてもよい。その後、取得部12は、その同一の被写体101を認識する際に、画像Aよりもさらに認識を行いやすい画像Bに基づいて被写体101の認識を行った場合には、記憶部16に記憶される画像Aを画像Bに更新してもよく、画像Aと共に画像Bを記憶部16に記憶してもよい。
一例として、取得部12は、画像Aに被写体101の上半身が記録され、その上半身のみでその被写体101が認識された後、画像Bにその被写体101の全身が記録され、その全身でその被写体101が認識された場合には、その被写体101を認識するための特徴をアップデートしてもよい。すなわち、取得部12は、画像Aに基づいて取得される被写体101の特徴から、画像Bに基づいて取得されるその被写体101の特徴にアップデートしてもよい。
取得部12は、被写体101の容姿を認識する場合、具体的な一例として、容姿の特徴点を取得することにより、被写体101の容姿を認識し、被写体101の容姿の特徴を取得することとしてもよい。取得部12は、容姿を認識する場合、上記のように容姿の特徴点を取得する方法の他に、種々の方法により被写体101の容姿を認識することとしてもよい。ここで、被写体101の容姿は、被写体101の顔、被写体101の髪型、被写体101の体型、及び、被写体101の全身又は一部の任意の容姿に関する特徴であってよい。
取得部12は、被写体101の服装を認識する場合、具体的な一例として、衣服の形及び衣服の色等の種々の特徴を取得することにより、被写体101の服装を認識して、服装の特徴を取得することとしてもよい。取得部12は、服装を認識する場合、上記のように衣服の特徴を取得することの他に、種々の方法により被写体101の服装を認識することとしてもよい。
取得部12は、被写体101の関節位置と、互いに隣接する関節位置の長さとを認識する場合、具体的な一例として、公知の種々の方法を利用して被写体101の身体の関節位置(特徴点)を取得し、取得した関節位置(特徴点)から互いに隣接する関節位置の長さを取得することにより、関節位置と互いに隣接する関節位置の長さとの特徴を取得することとしてもよい。なお、取得部12は、被写体101の関節位置(特徴点)を取得する場合、公知の種々の方法を利用して、関節位置が身体のどの部位(一例として、肩、肘及び手等)かを特定することとしてもよい。
取得部12は、被写体101の歩容を認識する場合、具体的な一例として、被写体101の歩き方、及び、被写体101の画像上の位置とその画像上で被写体101が移動する際の速さとを被写体101の特徴として取得することとしてもよい。取得部12は、被写体101の歩容を認識する場合、被写体101の歩き方、並びに、被写体101の画像上での位置及び速さ、のうち少なくとも一方を被写体101の特徴として取得することとしてもよい。又は、取得部12は、カメラ部15で撮像される画像上の位置と、実際(例えば、部屋等の内部)の位置とが対応付けられている場合、画像に映る被写体101の位置に基づいて被写体101の実際の位置を取得し、被写体101の実際のその位置とその被写体101が移動する際の速さとを取得することとしてもよい。
取得部12は、上述した(1)~(4)の認識に基づいて被写体101の特徴を取得する場合、認識した数が所定数以上であると、同一の被写体101として特定することとしてもよい。すなわち、例えば、取得部12は、上述した(1)~(4)の認識を行うことにより、被写体101の特徴を取得して、被写体101を特定する。すなわち、取得部12は、1又は複数の画像データに複数の被写体101が記録される場合には、上述した(1)~(4)の認識に基づいて、それらの被写体101が同一か否かを特定する。この場合、取得部12は、上述した(1)~(4)の認識に基づいて被写体101を特定する場合、具体的な一例として(1)~(4)の認識のうち所定数(閾値)以上の認識に基づいて、同一の被写体101とされる際、同一の被写体101として特定する。取得部12は、適宜設定された所定数(閾値)を取得することとしてもよい。具体的な一例として、取得部12は、多数決により、すなわち、所定数(閾値)として「3」が設定されることにより、上述した(1)~(4)の認識にうち3つ以上の認識において同一の被写体101とされる際には、同一の被写体101として特定することとしてもよい。
なお、取得部12は、上述した例示の他にも、例えば、(1)~(4)の認識それぞれにおける同一の被写体として特定の可能性が数値(例えば、(1)の認識で80%、(2)の認識で70%、…等))で出力される場合、(1)~(4)の数値を相加平均した平均値が閾値以上の場合に、同一の被写体として特定することとしてもよい。
取得部12は、上述した(1)~(4)の認識それぞれに対して重み付けを設定し、重み付けが相対的に重く設定されたら認識事項を優先して被写体101の特徴を取得することとしてもよい。取得部12は、具体的な一例として、重み付けを数段階(例えば、5段階又は10段階等)で設定し、重み付けの数値が相対的に大きいほど認識事項を、重み付けの数値が相対的に小さい認識事項よりも優先する(重要視する)こととしてもよい。すなわち、取得部12は、上述した(1)~(4)の認識事項のうち、重み付けの数値が相対的に大きい認識事項についてより注目して被写体101の認識を行い、被写体101の特徴を取得する。
なお、重み付けは、ユーザが入力することにより取得部12に設定され、所定のタイミングで変更されてもよい。例えば、画像データに記録される被写体101の容姿(一例として、被写体101の顔)が不鮮明の場合には、容姿認識の重み付けを相対的に小さく変更し、他の認証の重み付けを相対的に大きく変更することとしてもよい。
特定部13は、取得部12によって取得された特徴に基づいて画像データ上の被写体101を特定して、被写体101の移動を追跡する。特定部13は、取得部12によって被写体101の特徴が取得されると、画像データ上における被写体101を特定する。例えば、特定部13は、画像データ上に複数の被写体101が記録される場合、取得部12によって複数の被写体101それぞれの特徴が取得されると、画像データ上における複数の被写体101をそれぞれ特定する。これにより、画像上では、複数の被写体101はそれぞれ別の被写体101として識別される。
図3は、複数のカメラ部15で得られる画像の一例について説明するための図である。図3(A)は第1カメラ部で得られる画像の一例を示す図であり、図3(B)は第2カメラ部で得られる画像の一例を示す図である。
なお、上述した一例のように、1つのカメラ部15(第1カメラ部)が部屋の入口付近を撮像し、他のカメラ部15(第2カメラ部)が部屋の内部(室内)を撮影している場合がある。この場合、特定部13は、取得部12によって複数のカメラ部15のうちの1つのカメラ部15としての第1カメラ部で生成された画像データとしての第1画像データに基づいて被写体101の特徴を取得した場合、その被写体101の特徴を利用して、第1画像データに記録される被写体101、及び、第1カメラ部を除く他のカメラ部15で生成された画像データとしての第2画像データに記録される被写体101を特定することとしてもよい。
具体的な一例として、特定部13は、第1カメラ部によって撮像された第1画像データに基づいて被写体A(図3において符号「1」の吹き出しで特定される被写体)が認識されて、その被写体Aが特定された場合、被写体Aが室内に移動して第2カメラ部によって撮像された第2画像データに記録される場合には、第2画像データに基づいて被写体を認識した結果と、第1画像データに基づいて被写体Aを認識した(特定した)結果とに基づいて、その被写体を被写体Aと特定する。
特定部13は、取得部12によって上述した(1)~(4)の認識に基づいて被写体101の特徴を取得するので、第1カメラ部で撮像される部屋の入口では被写体A(図3において符号「1」の吹き出しで特定される被写体)がマスクを着けていて(図3(A)参照)、第2カメラ部で撮像される室内では被写体Aがマスクを外した場合でも(図3(B)参照)、第1カメラ部及び第2カメラ部それぞれで撮像される被写体Aが同一であると特定することが可能である。すなわち、情報処理装置1は、被写体101の容姿の認識の他にも、被写体101の服装の認識、被写体101の関節位置と互いに隣接する関節位置の長さの認識、及び、被写体101の歩容の認識も行うので、上記の例示の場合でも被写体Aが同一であると特定することができる。
なお、特定部13は、上述したマスクに限らず、衣服(例えば、上着及び帽子等)を脱いだ場合でも、同一の被写体101と特定することが可能である。
図4は、被写体101に対する所定の態様の情報、及び、被写体101の移動の軌跡103について説明するための図である。
図5は、複数のカメラ部15が配される場合の、被写体101に対する所定の態様の情報、及び、被写体101の移動の軌跡103について説明するための図である。図5(A)は第1カメラ部で得られる画像の一例を示す図であり、図5(B)は第2カメラ部で得られる画像の一例を示す図である。
出力制御部14は、特定部13によって追跡される被写体101に関する情報を出力するよう出力部を制御する。ここで、出力部は、例えば、表示部18である。具体的な一例として、出力制御部14は、特定部13によって特定される被写体101に対して所定の態様の情報を対応付けて、被写体101と所定の態様の情報とを表示するよう表示部18を制御することとしてもよい。出力制御部14は、図4に一例を示すように、画像上における被写体101の近傍に、被写体101毎に異なる番号、文字又は記号等(以下、「番号102」等)を所定の態様の情報として配置して、被写体101とその被写体101に対応する番号102とを表示部18に表示することとしてもよい。
出力制御部14は、所定の態様の情報として被写体101の移動の軌跡103を示す画像を、その被写体101の移動に応じて表示するよう表示部18を制御することとしてもよい。また、出力制御部14は、画像内での被写体101の移動に応じて、その被写体101の軌跡103を表示部18に表示することとしてもよい。この場合、出力制御部14は、図4に一例を示すように、画像内に複数の被写体101が写る場合には、被写体101毎に異なる態様(例えば、色を変える、及び、軌跡の形状を変える等)で軌跡103を表示することとしてもよい。また、出力制御部14は、図5に一例を示す複数のカメラ部15で撮像する場合でも、同一の被写体101に対しては同一の態様、すなわち、同一の被写体101に対しては同一の番号102を付し、軌跡103の色又は形状も同一にして表示部18に表示することとしてもよい。
出力制御部14は、現在時刻により近い軌跡103の色を濃くし、現在時刻からより離れた軌跡103の色を薄くしてもよい。また、出力制御部14は、現在時刻から所定時間以上前の軌跡103を削除してもよい。
なお、出力制御部14は、図3~5に示すようにカメラ部15によって得られる被写体101の画像に重ねて番号102及び軌跡103を表示するばかりでなく、室内の平面図に被写体101の移動の軌跡103を重ねた画像を表示部18に表示することとしてもよい。その場合、出力制御部14は、被写体101に対する番号102も表示部18に表示することとしてもよい。
また、出力制御部14は、被写体101毎の移動の軌跡103に関する情報を記憶部16に記憶し、又は、通信部17を介してサーバ(図示せず)に蓄積することとしてもよい。記憶部16及び通信部17は、出力部の一例であってもよい。この場合、出力制御部14は、記憶部16又は外部のサーバ(図示せず)に記憶される複数の被写体101の移動の軌跡103に関する情報のうち、選択した1又は複数の情報に基づいて、選択した被写体101の移動の軌跡103を表示部18に表示することとしてもよい。
次に、一実施形態に係る情報処理方法について説明する。
図6は、一実施形態に係る情報処理方法について説明するためのフローチャートである。
ステップST101において、取得部12は、被写体101が記録される画像データに基づいて、被写体101の特徴を取得する。この場合、取得部12は、例えば、カメラ部15によって生成された画像データに基づいて、被写体101の特徴を取得することとしてもよい。又は、取得部12は、例えば、通信部17を介して、情報処理装置1の外部にある外部カメラ(図示せず)で生成された画像データを取得し、又は、情報処理装置1の外部にある装置(例えば、サーバ等)(図示せず)に蓄積される画像データを取得して、その画像データに基づいて被写体101の特徴を取得することとしてもよい。
取得部12は、例えば、(1)画像データに基づいて取得した被写体101の容姿を認識すること、(2)画像データに基づいて取得した被写体101の服装を認識すること、(3)画像データに基づいて取得した被写体101の関節位置と互いに隣接する関節位置の長さを認識すること、及び、(4)画像データ上の被写体101の歩容を認識することのうち、少なくとも1つを行うことに基づいて、被写体101の特徴を取得する。
この場合、取得部12は、上述した(1)~(4)の認識に基づいて被写体101の特徴を取得する場合、認識した数が所定数(閾値)以上であると、同一の被写体101として特定することとしてもよい。
また、取得部12は、上述した(1)~(4)の認識それぞれに対して重み付けを設定し、重み付けが相対的に重く設定されたら認識事項を優先して被写体101の特徴を取得することとしてもよい。
ステップST102において、特定部13は、ステップST101で被写体101を認識した結果に基づいて被写体101を特定し、その被写体101の移動を追跡する。
ここで、例えば、特定部13は、複数のカメラ部15のうちの第1カメラ部で生成された第1画像データに基づいて取得した被写体101の特徴(被写体101の認識結果)と、第2カメラ部で生成された第2画像データに基づいて取得した被写体101の特徴(被写体101の認識結果)とが対応する場合に、その被写体101を同一の被写体として特定し、異なる画像データ間であっても同一の被写体101として追跡する。
ステップST103において、出力制御部14は、ステップST102で特定される被写体101に対して所定の態様の情報(番号102)を対応付けて、被写体101と所定の態様の情報とを表示するよう表示部18を制御することとしてもよい。出力制御部14は、異なる画像データ間を被写体101が移動する(被写体101が異なるカメラ部15で撮像される場所を移動する)場合でも、ステップST102によって特定される同一の被写体101に対しては同一の番号102を付して(画像上の被写体101の近傍に番号102を配置して)表示部18に表示するよう制御する。
ステップST104において、出力制御部14は、ステップST102で特定された被写体101が移動する場合、その被写体101の移動の軌跡103を表示するよう表示部18を制御する。この場合、出力制御部14は、画像内に複数の被写体101が写る場合には、被写体101毎に異なる態様(例えば、色を変える、及び、軌跡の形状を変える等)で軌跡103を表示することとしてもよい。また、出力制御部14は、複数のカメラ部15で撮像する場合でも、同一の被写体101に対しては同一の態様、すなわち、同一の被写体101に対しては同一の番号102を付し、軌跡103の色又は形状も同一にして表示部18に表示することとしてもよい。
次に、本実施形態の効果について説明する。
情報処理装置1は、被写体101が記録される画像データに基づいて、被写体101の特徴を取得する取得部12と、取得部12によって取得された特徴に基づいて画像データ上の被写体101を特定して、被写体101の移動を追跡する特定部13と、特定部13によって追跡される被写体101に関する情報を出力するよう出力部を制御する出力制御部14と、を備える。この場合、取得部12は、(1)画像データに基づいて取得した被写体101の容姿を認識すること、(2)画像データに基づいて取得した被写体101の服装を認識すること、(3)画像データに基づいて取得した被写体101の関節位置と互いに隣接する関節位置の長さを認識すること、及び、(4)画像データ上の被写体101の歩容を認識することのうち、少なくとも1つに基づいて被写体101の特徴を取得する。
これにより、情報処理装置1は、被写体101を検出してその被写体101の移動を追跡することができる。また、情報処理装置1は、画像データから初めて被写体101を認識するので、予め被写体101を特定するためのデータを保有しておく必要がなく、認識処理の負荷を軽減することができる。また、情報処理装置1は、複数の被写体101が重なっている場合(カメラ部15に対して被写体101が前後にいる場合)でも、被写体101の重なりが解消された時点で被写体101(後ろにいる被写体)の認識を行うことができるので、それぞれの被写体101を特定することができる。また、情報処理装置1は、上述した(1)~(4)の認識事項の少なくとも1つに基づいて被写体101を認識するので、複数の画像データに被写体101が記録される場合でも、(1)~(4)の認識事項の少なくとも1つに基づいて、同一の被写体101か否かを特定することができる。すなわち、情報処理装置1は、上述した(1)~(4)のいずれかの認識の結果があいまいでも、他の認識結果に基づいて、同一の被写体101と認識することができる。
情報処理装置1は、被写体101を撮像して画像データを生成する、異なる位置に配される複数のカメラ部15を備えていてもよい。この場合、特定部13は、取得部12によって複数のカメラ部15のうちの第1カメラ部で生成された第1画像データに基づいて被写体101の特徴を取得した場合、その被写体101の特徴を利用して、第1画像データに記録される被写体101、及び、他のカメラ部15(第2カメラ部)で生成された第2画像データに記録される被写体101を特定することとしてもよい。
情報処理装置1は、第1画像データに基づいて被写体101を認識した結果と、第2画像データに基づいて被写体101を認識した結果とが対応していれば(一致していれば)、同一の被写体101として特定することができる。これにより、情報処理装置1は、複数のカメラ部15で異なる位置を撮像する場合でも、移動する被写体101の同一性を特定することができる。
情報処理装置1では、取得部12は、(1)画像データに基づいて取得した被写体101の容姿を認識すること、(2)画像データに基づいて取得した被写体101の服装を認識すること、(3)画像データに基づいて取得した被写体101の関節位置と互いに隣接する関節位置の長さを認識すること、及び、(4)画像データ上の被写体101の歩容を認識することに基づいて被写体101の特徴を取得し、認識した数が所定数以上の場合、同一の被写体101として特定することとしてもよい。
これにより、情報処理装置1は、上述した(1)~(4)の認識事項のうち所定数(閾値)以上の認識事項が一致していれば、同一の被写体101として特定することができる。
情報処理装置1では、取得部12は、(1)画像データに基づいて取得した被写体101の容姿を認識すること、(2)画像データに基づいて取得した被写体101の服装を認識すること、(3)画像データに基づいて取得した被写体101の関節位置と互いに隣接する関節位置の長さを認識すること、及び、(4)画像データ上の被写体101の歩容を認識することのそれぞれに対して重み付けを設定し、重み付けが相対的に重く設定されたら認識事項を優先して被写体101の特徴を取得することとしてもよい。
これにより、情報処理装置1は、上述した(1)~(4)の認識事項に重み付けを設定することにより、重み付けが相対的に重く設定された認識事項について他の認識事項よりも注目して、被写体101の同一性を判断することができる。
情報処理装置1では、取得部12は、被写体101の全体の特徴を学習することに応じて生成された学習モデルと、画像データとに基づいて、被写体101の全体の特徴を取得するグローバル・ブランチと、被写体101の局所的な特徴を学習することに応じて生成された学習モデルと、画像データとに基づいて、被写体101の局所的な特徴を取得するローカル・ブランチと、を備えることとしてもよい。
これにより、情報処理装置1は、被写体101の特徴を正確に抽出することができる。取得部12は、例えば、画像に記録される被写体101と背景とを区別して、その被写体101の特徴を抽出することができる。その場合に、取得部12は、3つのブランチそれぞれで得られる特徴に基づいて、被写体101を特定(識別)することができる。
情報処理装置1では、出力部は、表示部18であってもよい。この場合、出力制御部14は、特定部13によって特定される被写体101に対して所定の態様の情報(番号102)を対応付けて、被写体101と所定の態様の情報とを表示するよう表示部18を制御することとしてもよい。
これにより、情報処理装置1は、同一の被写体101には1つの番号102を対応付けるので、複数のカメラ部15で異なる場所を撮像する場合でも、移動する同一の被写体101を特定することができる。
情報処理装置1では、出力制御部14は、所定の態様の情報として被写体101の移動の軌跡103を示す画像を、その被写体101の移動に応じて表示するよう表示部18を制御することとしてもよい。
これにより、情報処理装置1は、同一の被写体101には同一の態様(例えば、軌跡の色及び軌跡を示す形状等)の軌跡103を対応付けるので、複数のカメラ部15で異なる場所を撮像する場合でも、移動する同一の被写体101を特定することができる。
情報処理方法では、コンピュータが、被写体101が記録される画像データに基づいて、被写体101の特徴を取得する取得ステップと、取得ステップによって取得された特徴に基づいて画像データ上の被写体101を特定して、被写体101の移動を追跡する特定ステップと、特定ステップによって追跡される被写体101に関する情報を出力するよう出力ステップを制御する出力制御ステップと、を実行する。この場合、取得ステップは、(1)画像データに基づいて取得した被写体101の容姿を認識すること、(2)画像データに基づいて取得した被写体101の服装を認識すること、(3)画像データに基づいて取得した被写体101の関節位置と互いに隣接する関節位置の長さを認識すること、及び、(4)画像データ上の被写体101の歩容を認識することのうち、少なくとも1つに基づいて被写体101の特徴を取得することとしてもよい。
これにより、情報処理方法は、被写体101を検出してその被写体101の移動を追跡することができる。また、情報処理方法は、画像データから初めて被写体101を認識するので、予め被写体101を特定するためのデータを保有しておく必要がなく、認識処理の負荷を軽減することができる。また、情報処理方法は、複数の被写体101が重なっている場合(カメラ部15に対して被写体101が前後にいる場合)でも、被写体101の重なりが解消された時点で被写体101(後ろにいる被写体)の認識を行うことができるので、それぞれの被写体101を特定することができる。また、情報処理方法は、上述した(1)~(4)の認識事項の少なくとも1つに基づいて被写体101を認識するので、複数の画像データに被写体101が記録される場合でも、(1)~(4)の認識事項の少なくとも1つに基づいて、同一の被写体101か否かを特定することができる。すなわち、情報処理方法は、上述した(1)~(4)のいずれかの認識の結果があいまいでも、他の認識結果に基づいて、同一の被写体101と認識することができる。
情報処理プログラムは、コンピュータに、被写体101が記録される画像データに基づいて、被写体101の特徴を取得する取得機能と、取得機能によって取得された特徴に基づいて画像データ上の被写体101を特定して、被写体101の移動を追跡する特定機能と、特定機能によって追跡される被写体101に関する情報を出力するよう出力機能を制御する出力制御機能と、を実現させる。この場合、取得機能は、(1)画像データに基づいて取得した被写体101の容姿を認識すること、(2)画像データに基づいて取得した被写体101の服装を認識すること、(3)画像データに基づいて取得した被写体101の関節位置と互いに隣接する関節位置の長さを認識すること、及び、(4)画像データ上の被写体101の歩容を認識することのうち、少なくとも1つに基づいて被写体101の特徴を取得する。
これにより、情報処理プログラムは、被写体101を検出してその被写体101の移動を追跡することができる。また、情報処理プログラムは、画像データから初めて被写体101を認識するので、予め被写体101を特定するためのデータを保有しておく必要がなく、認識処理の負荷を軽減することができる。また、情報処理プログラムは、複数の被写体101が重なっている場合(カメラ部15に対して被写体101が前後にいる場合)でも、被写体101の重なりが解消された時点で被写体101(後ろにいる被写体)の認識を行うことができるので、それぞれの被写体101を特定することができる。また、情報処理プログラムは、上述した(1)~(4)の認識事項の少なくとも1つに基づいて被写体101を認識するので、複数の画像データに被写体101が記録される場合でも、(1)~(4)の認識事項の少なくとも1つに基づいて、同一の被写体101か否かを特定することができる。すなわち、情報処理プログラムは、上述した(1)~(4)のいずれかの認識の結果があいまいでも、他の認識結果に基づいて、同一の被写体101と認識することができる。
上述した情報処理装置1の各部は、コンピュータの演算処理装置等の機能として実現されてもよい。すなわち、情報処理装置1の取得部12、特定部13及び出力制御部14は、コンピュータの演算処理装置等による取得機能、特定機能及び出力制御機能としてそれぞれ実現されてもよい。
情報処理プログラムは、上述した各機能をコンピュータに実現させることができる。情報処理プログラムは、外部メモリ又は光ディスク等の、コンピュータで読み取り可能な非一時的な記録媒体に記録されていてもよい。
また、上述したように、情報処理装置1の各部は、コンピュータの演算処理装置等で実現されてもよい。その演算処理装置等は、例えば、集積回路等によって構成される。このため、情報処理装置1の各部は、演算処理装置等を構成する回路として実現されてもよい。すなわち、情報処理装置1の取得部12、特定部13及び出力制御部14は、コンピュータの演算処理装置等を構成する取得回路、特定回路及び出力制御回路として実現されてもよい。
また、情報処理装置1のカメラ部15、並びに、記憶部16、通信部17及び表示部18(出力部)は、例えば、演算処理装置等の機能を含むカメラ機能、並びに、記憶機能、通信機能及び表示機能(出力機能)として実現されもよい。また、情報処理装置1のカメラ部15、並びに、記憶部16、通信部17及び表示部18(出力部)は、例えば、集積回路等によって構成されることによりカメラ回路、並びに、記憶回路、通信回路及び表示回路(出力回路)として実現されてもよい。また、情報処理装置1のカメラ部15、並びに、記憶部16、通信部17及び表示部18(出力部)は、例えば、複数のデバイスによって構成されることによりカメラ装置、並びに、記憶装置、通信装置及び表示装置(出力装置)として構成されてもよい。
1 情報処理装置
12 取得部
13 特定部
14 出力制御部
15 カメラ部
16 記憶部
17 通信部
18 表示部

Claims (8)

  1. 被写体が記録される画像データに基づいて、被写体の特徴を取得する取得部と、
    前記取得部によって取得された特徴に基づいて画像データ上の被写体を特定して、被写体の移動を追跡する特定部と、
    前記特定部によって追跡される被写体に関する情報を出力するよう出力部を制御する出力制御部と、を備え、
    前記取得部は、画像データに基づいて取得した被写体の容姿を認識すること、画像データに基づいて取得した被写体の服装を認識すること、画像データに基づいて取得した被写体の関節位置と互いに隣接する関節位置の長さを認識すること、及び、画像データ上の被写体の歩容を認識することのそれぞれを利用して被写体の同一性を認識し、それぞれの同一の被写体と認識される可能性の数値に基づいて相加平均を算出し、算出した結果が閾値以上の場合に同一の被写体と特定し、
    さらに、前記取得部は、
    被写体の全体の特徴を学習することに応じて生成された学習モデルと、画像データとに基づいて、被写体の全体の特徴を取得するグローバル・ブランチと、
    被写体の局所的な特徴を学習することに応じて生成された学習モデルと、画像データとに基づいて、被写体の局所的な特徴を取得する複数のローカル・ブランチと、を備え、
    前記複数のローカル・ブランチそれぞれは、粒度の異なる局所的な特徴を学習する
    情報処理装置。
  2. 被写体を撮像して画像データを生成する、異なる位置に配される複数のカメラ部を備え、
    前記特定部は、取得部によって前記複数のカメラ部のうちの1つのカメラ部としての第1カメラ部で生成された画像データとしての第1画像データに基づいて被写体の特徴を取得した場合、当該被写体の特徴を利用して、第1画像データに記録される被写体、及び、前記第1カメラ部を除く他のカメラ部で生成された画像データとしての第2画像データに記録される被写体を特定する
    請求項1に記載の情報処理装置。
  3. 前記取得部は、画像データに基づいて取得した被写体の容姿を認識すること、画像データに基づいて取得した被写体の服装を認識すること、画像データに基づいて取得した被写体の関節位置と互いに隣接する関節位置の長さを認識すること、及び、画像データ上の被写体の歩容を認識することに基づいて被写体の特徴を取得し、認識した数が所定数以上の場合、同一の被写体として特定する
    請求項1又は2に記載の情報処理装置。
  4. 前記取得部は、画像データに基づいて取得した被写体の容姿を認識すること、画像データに基づいて取得した被写体の服装を認識すること、画像データに基づいて取得した被写体の関節位置と互いに隣接する関節位置の長さを認識すること、及び、画像データ上の被写体の歩容を認識することのそれぞれに対して重み付けを設定し、重み付けが相対的に重く設定されたら認識事項を優先して被写体の特徴を取得する
    請求項3に記載の情報処理装置。
  5. 前記出力部は、表示部であり、
    前記出力制御部は、前記特定部によって特定される被写体に対して所定の態様の情報を対応付けて、被写体と所定の態様の情報とを表示するよう前記表示部を制御する
    請求項1~4のいずれか1項に記載の情報処理装置。
  6. 前記出力制御部は、所定の態様の情報として被写体の移動の軌跡を示す画像を、その被写体の移動に応じて表示するよう前記表示部を制御する
    請求項5に記載の情報処理装置。
  7. コンピュータが、
    被写体が記録される画像データに基づいて、被写体の特徴を取得する取得ステップと、
    前記取得ステップによって取得された特徴に基づいて画像データ上の被写体を特定して、被写体の移動を追跡する特定ステップと、
    前記特定ステップによって追跡される被写体に関する情報を出力するよう出力ステップを制御する出力制御ステップと、を実行し、
    前記取得ステップは、画像データに基づいて取得した被写体の容姿を認識すること、画像データに基づいて取得した被写体の服装を認識すること、画像データに基づいて取得した被写体の関節位置と互いに隣接する関節位置の長さを認識すること、及び、画像データ上の被写体の歩容を認識することのそれぞれを利用して被写体の同一性を認識し、それぞれの同一の被写体と認識される可能性の数値に基づいて相加平均を算出し、算出した結果が閾値以上の場合に同一の被写体と特定し、
    さらに、前記取得ステップは、
    被写体の全体の特徴を学習することに応じて生成された学習モデルと、画像データとに基づいて、被写体の全体の特徴を取得するグローバル・ブランチと、
    被写体の局所的な特徴を学習することに応じて生成された学習モデルと、画像データとに基づいて、被写体の局所的な特徴を取得する複数のローカル・ブランチと、を備え、
    前記複数のローカル・ブランチそれぞれは、粒度の異なる局所的な特徴を学習する
    情報処理方法。
  8. コンピュータに、
    被写体が記録される画像データに基づいて、被写体の特徴を取得する取得機能と、
    前記取得機能によって取得された特徴に基づいて画像データ上の被写体を特定して、被写体の移動を追跡する特定機能と、
    前記特定機能によって追跡される被写体に関する情報を出力するよう出力機能を制御する出力制御機能と、を実現させ、
    前記取得機能は、画像データに基づいて取得した被写体の容姿を認識すること、画像データに基づいて取得した被写体の服装を認識すること、画像データに基づいて取得した被写体の関節位置と互いに隣接する関節位置の長さを認識すること、及び、画像データ上の被写体の歩容を認識することのそれぞれを利用して被写体の同一性を認識し、それぞれの同一の被写体と認識される可能性の数値に基づいて相加平均を算出し、算出した結果が閾値以上の場合に同一の被写体と特定し、
    さらに、前記取得機能は、
    被写体の全体の特徴を学習することに応じて生成された学習モデルと、画像データとに基づいて、被写体の全体の特徴を取得するグローバル・ブランチと、
    被写体の局所的な特徴を学習することに応じて生成された学習モデルと、画像データとに基づいて、被写体の局所的な特徴を取得する複数のローカル・ブランチと、を備え、
    前記複数のローカル・ブランチそれぞれは、粒度の異なる局所的な特徴を学習する
    情報処理プログラム。
JP2020166856A 2020-04-15 2020-10-01 情報処理装置、情報処理方法及び情報処理プログラム Active JP7098180B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020072745 2020-04-15
JP2020072745 2020-04-15

Publications (2)

Publication Number Publication Date
JP2021170307A JP2021170307A (ja) 2021-10-28
JP7098180B2 true JP7098180B2 (ja) 2022-07-11

Family

ID=78150104

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020166856A Active JP7098180B2 (ja) 2020-04-15 2020-10-01 情報処理装置、情報処理方法及び情報処理プログラム

Country Status (1)

Country Link
JP (1) JP7098180B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010257451A (ja) 2009-03-31 2010-11-11 Sogo Keibi Hosho Co Ltd 人物検索装置、人物検索方法、及び人物検索プログラム
JP2012079348A (ja) 2012-01-23 2012-04-19 Mitsubishi Electric Information Systems Corp 人物特定装置、人物特定方法及び人物特定プログラム
JP2018032950A (ja) 2016-08-23 2018-03-01 キヤノン株式会社 情報処理装置及びその方法、コンピュータプログラム
JP2018125587A (ja) 2017-01-30 2018-08-09 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP2018526723A (ja) 2015-07-09 2018-09-13 クゥアルコム・インコーポレイテッドQualcomm Incorporated 画像中のオブジェクト検出のためのコンテキストベースの事前分布

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010257451A (ja) 2009-03-31 2010-11-11 Sogo Keibi Hosho Co Ltd 人物検索装置、人物検索方法、及び人物検索プログラム
JP2012079348A (ja) 2012-01-23 2012-04-19 Mitsubishi Electric Information Systems Corp 人物特定装置、人物特定方法及び人物特定プログラム
JP2018526723A (ja) 2015-07-09 2018-09-13 クゥアルコム・インコーポレイテッドQualcomm Incorporated 画像中のオブジェクト検出のためのコンテキストベースの事前分布
JP2018032950A (ja) 2016-08-23 2018-03-01 キヤノン株式会社 情報処理装置及びその方法、コンピュータプログラム
JP2018125587A (ja) 2017-01-30 2018-08-09 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
JP2021170307A (ja) 2021-10-28

Similar Documents

Publication Publication Date Title
JP7023613B2 (ja) 画像認識装置および学習装置
JP5008269B2 (ja) 情報処理装置、情報処理方法
JP4241763B2 (ja) 人物認識装置及びその方法
JP4650669B2 (ja) 動体認識装置
US9224037B2 (en) Apparatus and method for controlling presentation of information toward human object
JP5459674B2 (ja) 移動物体追跡システムおよび移動物体追跡方法
CN107438173A (zh) 视频处理装置、视频处理方法和存储介质
CN109299658B (zh) 脸部检测方法、脸部图像渲染方法、装置及存储介质
JP5001930B2 (ja) 動作認識装置及び方法
Hasan et al. Robust pose-based human fall detection using recurrent neural network
JP7422456B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP7484985B2 (ja) 認証システム、認証方法、及び、プログラム
Li et al. Robust multiperson detection and tracking for mobile service and social robots
US9036920B2 (en) Method of detecting feature points of an object in a system for motion detection
CN110633004A (zh) 基于人体姿态估计的交互方法、装置和***
JPWO2020079741A1 (ja) 虹彩認証装置、虹彩認証方法、虹彩認証プログラムおよび記録媒体
CN112989889A (zh) 一种基于姿态指导的步态识别方法
JP6876312B1 (ja) 学習モデル生成方法、コンピュータプログラム及び情報処理装置
JP7098180B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
Uddin et al. A thermal camera-based activity recognition using discriminant skeleton features and rnn
John et al. Assessing performance of aerobic routines using background subtraction and intersected image region
JP2021060866A (ja) 情報処理装置、情報処理方法、及びプログラム
KR20230077560A (ko) 전시관 맞춤형 서비스 제공 장치 및 이의 제어 방법
JP2022019339A (ja) 情報処理装置、情報処理方法及びプログラム
Bhuiyan et al. Person re-identification using robust brightness transfer functions based on multiple detections

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220622

R150 Certificate of patent or registration of utility model

Ref document number: 7098180

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150