JP4419543B2 - 検出装置および検出方法 - Google Patents
検出装置および検出方法 Download PDFInfo
- Publication number
- JP4419543B2 JP4419543B2 JP2003407063A JP2003407063A JP4419543B2 JP 4419543 B2 JP4419543 B2 JP 4419543B2 JP 2003407063 A JP2003407063 A JP 2003407063A JP 2003407063 A JP2003407063 A JP 2003407063A JP 4419543 B2 JP4419543 B2 JP 4419543B2
- Authority
- JP
- Japan
- Prior art keywords
- probability
- likelihood
- candidates
- hidden
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
以下に本発明の実施の形態における検出装置および方法について説明する。本実施の形態における装置および方法では、画像から簡単に抽出される人体部位候補の部位らしさの確率と部位間の相互関係とを利用して、人体らしさを確率的に計算することにより、オクルージョンや撮影環境の変化に対してロバストかつ計算コストを増大させることなく、人体検知や姿勢推定を行うことを目的としている。
(1) 平行線ペアの幅dは各々の直線エッジの位置の差d=|m1−m2|、
(2) 平行線ペアの方向θは各々の直線エッジの方向の平均θ=(θ1+θ2)/2、
(3) 平行線ペアの位置mは各々の位置の中点m=(m1+m2)/2、
とする。
L=P11・Pk2・P43・・・・P310・L11k2・L1143・・・・L11310・Lk243・・・
と計算することができる。
図20は、本発明の第2の実施形態における検出装置の構成を示すブロック図である。
c1=π0+π1
...
cN=π0+π1+・・・+πN
なお、これらは最大で1になるように、正規化しておく。
xt+1=Axt+Bwt
(ここで、xtは時刻tにおける状態変数、Aは運動モデル行列、wはBによって正規化された標準ガウス分布で、BBTはノイズ共分散行列と仮定する。)
この時、
図24は、本発明の第3の実施の形態における、プログラムを実行するコンピュータの構成を示すブロック図である。
第4の実施の形態における検出装置および検出方法は、第1〜第3の実施の形態における検出装置および検出方法において、部位候補のパラメータ値として、さらに画像のエッジ情報、画像の色情報および画像のテクスチャ情報のうち少なくとも1つを測定し、それを用いて各部位ごとの部位確率を計算することを特徴としている。
[(髪+肌)色画素数]/(全画素数)
を計算し、その値をパラメータRcとしておく。その値が大きければ、その楕円は頭部である確率が高いことを意味する。尤度の計算を行なうために、
p(c)=p(Rc)
の関数を想定する。なお、色空間はRGB空間を用いることができる。YIQ空間など肌色抽出に適した空間を用いてもよいし、またはそれ以外の色空間を用いてもよい。
phead=p(d)・p(c)
で表わすことができる。
以上のようにして、大きさとテクスチャ情報とを用いて、楕円が頭部である確率pheadは、
phead=p(d)・p(T)
で表わされる。
ここで、幅の差の絶対値をとらないことにより、L4として、負になる確率が小さくなるような分布を選べば、長袖であっても半袖であっても、上腕が下腕より細くなることはないという一般的な傾向を反映することができる。たとえば、γ分布を用いることができる。
(ただし、col=|C1−C2|:それぞれの平行線ペアの代表色の色空間内での距離)
このようにして、平行線平行線部位関係尤度は、平行線間の距離、太さの差および色の類似性によって、
L=L3・L4・L5
と定義できる。
このようにして、平行線平行線部位関係尤度は、平行線間の距離、太さの差およびテクスチャの類似性によって、
L=L3・L4・L5
で定義できる。
第5の実施の形態における検出装置および検出方法は、第1〜第4の実施の形態における検出装置および検出方法が作成する図18のネットワークにおいて、候補なしのノード(図18における最下行に位置するノードであり、「オクルージョンノード」と呼ぶ。)が選択される確率(ある部位が隠れていると判断される確率)を、他のノードが選択される確率に基づいて算出することとしている。
親1の任意の2つの遺伝子i,jの間の局所尤度の値を計算する。
親1の任意の2つの遺伝子i,jの間に、局所尤度の値に依存した確率Pbond(LL)でボンドを生成するか否かを決定する。遺伝子i,jの間にボンドが生成された時、B(i,j)=1と表現する。
互いにボンドで連結した遺伝子から構成されるクラスタを抽出する。すなわち、クラスタの集合を、{C1,C2,・・・,Cn}、Ci={g1,g2,・・・,gim}とすれば、各クラスタiに対して、任意のs,tについて、B(gs,gt)=1である。
クラスタサイズの大きいものから順にN個、子2にコピーする。同一サイズのクラスタが複数ある場合には、内部の局所対数尤度が低いものから順にコピーする。
子2の残りの遺伝子座に親2の遺伝子をコピーする。
親2についてもステップS101からS103を繰り返し、クラスタを抽出する。
子1に対してステップS104からS105を繰り返す。
交叉確率外であれば、2つの親の染色体を2つの子にコピーする。
第6の実施の形態は、第5の実施の形態と同様に、オクルージョンノードが選択される確率を他のノードに基づいて算出するものであるが、各々のオクルージョンノード毎に、部位尤度を求め、オクルージョンノードと他のノードとの部位関係尤度を求めることを特徴としている。
上述の実施の形態によると、画像から簡単に抽出される人体部位候補の部位らしさの確率と部位間の相互関係とを利用して人体らしさを確率的に計算することにより、オクルージョンや撮影環境の変化に対してロバストかつ計算コストを増大させることなく、人体検知や姿勢推定を行うことができる。
なお、上述した具体的実施形態には以下の構成を有する発明が含まれている。
前記画像から前記複数の部位の候補となる部位候補を抽出する抽出ステップと、
抽出された部位候補ごとに、前記各部位のうち少なくとも1つとしての確率を算出する確率算出ステップと、
前記各部位の隠れ確率を推定する推定ステップと、
前記確率算出部によって算出された確率、前記推定ステップで推定された隠れ確率、および前記部位候補の配置関係に基づき、前記検出対象としての確率の高い部位候補の組合せを選択する選択ステップとをコンピュータに実行させる、検出プログラム。
Claims (10)
- 複数の部位から構成される検出対象を画像から検出する検出装置であって、
前記画像から前記複数の部位の候補となる部位候補を抽出する抽出部と、
抽出された部位候補ごとに、前記各部位のうち少なくとも1つとしての確率を算出する確率算出部と、
前記各部位の隠れ確率を推定する推定部と、
前記確率算出部によって算出された確率、前記推定部で推定された隠れ確率、および前記部位候補の配置関係に基づき、前記検出対象としての確率の高い部位候補の組合せを選択する選択部とを備え、
前記推定部は、前記確率算出部によって算出された確率、および前記部位候補の配置関係に基づき前記隠れ確率を推定する、検出装置。 - 前記推定部は、平均的な人体モデルから最も離れた部位尤度、および平均的な人体モデルから最も離れた部位関係尤度を計算し、その計算結果に基づき前記隠れ確率を推定する、請求項1に記載の検出装置。
- 前記推定部は、部位が隠れていると判断するときの部位尤度を他の部位候補の部位尤度から算出し、部位が隠れていると判断するときの部位関係尤度を他の部位候補の部位関係尤度から計算する、請求項1に記載の検出装置。
- 前記選択部は、部位が隠れている場合を含む複数の組合せから、エネルギー関数を用いて検出対象としての確率の高い部位候補の組合せを選択する、請求項1〜3のいずれかに記載の検出装置。
- 前記選択部は、前記確率算出部によって算出された確率、前記推定部で推定された隠れ確率、および前記部位候補の配置関係に基づき、最適化処理により前記検出対象としての確率の高い部位候補の組合せを選択する、請求項1〜4のいずれかに記載の検出装置。
- 複数の部位から構成される検出対象を画像から検出する検出方法であって、
前記画像から前記複数の部位の候補となる部位候補を抽出する抽出ステップと、
抽出された部位候補ごとに、前記各部位のうち少なくとも1つとしての確率を算出する確率算出ステップと、
前記各部位の隠れ確率を推定する推定ステップと、
前記確率算出部によって算出された確率、前記推定ステップで推定された隠れ確率、および前記部位候補の配置関係に基づき、前記検出対象としての確率の高い部位候補の組合せを選択する選択ステップとを備え、
前記推定ステップは、前記確率算出ステップによって算出された確率、および前記部位候補の配置関係に基づき前記隠れ確率を推定する、検出方法。 - 前記推定ステップは、平均的な人体モデルから最も離れた部位尤度、および平均的な人体モデルから最も離れた部位関係尤度を計算し、その計算結果に基づき前記隠れ確率を推定する、請求項6に記載の検出方法。
- 前記推定ステップは、部位が隠れていると判断するときの部位尤度を他の部位候補の部位尤度から算出し、部位が隠れていると判断するときの部位関係尤度を他の部位候補の部位関係尤度から計算する、請求項6に記載の検出方法。
- 前記選択ステップは、部位が隠れている場合を含む複数の組合せから、エネルギー関数を用いて検出対象としての確率の高い部位候補の組合せを選択する、請求項6〜8のいずれかに記載の検出方法。
- 前記選択ステップは、前記確率算出ステップによって算出された確率、前記推定ステップで推定された隠れ確率、および前記部位候補の配置関係に基づき、最適化処理により前記検出対象としての確率の高い部位候補の組合せを選択する、請求項6〜9のいずれかに記載の検出方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003407063A JP4419543B2 (ja) | 2003-12-05 | 2003-12-05 | 検出装置および検出方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003407063A JP4419543B2 (ja) | 2003-12-05 | 2003-12-05 | 検出装置および検出方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005165923A JP2005165923A (ja) | 2005-06-23 |
JP4419543B2 true JP4419543B2 (ja) | 2010-02-24 |
Family
ID=34729225
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003407063A Expired - Fee Related JP4419543B2 (ja) | 2003-12-05 | 2003-12-05 | 検出装置および検出方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4419543B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009145346A (ja) * | 2007-12-14 | 2009-07-02 | Palo Alto Research Center Inc | 検知システム |
US20170213360A1 (en) * | 2011-01-24 | 2017-07-27 | Panasonic Corporation | Posture state estimation apparatus and posture state estimation method |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7436980B2 (en) * | 2004-05-27 | 2008-10-14 | Siemens Corporate Research, Inc. | Graphical object models for detection and tracking |
JP4699056B2 (ja) * | 2005-03-15 | 2011-06-08 | パナソニック株式会社 | 自動追尾装置及び自動追尾方法 |
JP4830650B2 (ja) * | 2005-07-05 | 2011-12-07 | オムロン株式会社 | 追跡装置 |
DE102005037841B4 (de) * | 2005-08-04 | 2010-08-12 | Gesellschaft zur Förderung angewandter Informatik e.V. | Verfahren und Anordnung zur Bestimmung der relativen Lage eines ersten Objektes bezüglich eines zweiten Objektes, sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium |
KR100682953B1 (ko) * | 2005-12-14 | 2007-02-15 | 삼성전자주식회사 | 인물 검출장치 및 방법 |
JP5027741B2 (ja) * | 2008-06-18 | 2012-09-19 | セコム株式会社 | 画像監視装置 |
CN102257529B (zh) | 2008-12-22 | 2014-03-19 | 日本电气株式会社 | 判断人的设备、方法 |
CN103004236B (zh) | 2010-07-23 | 2015-09-09 | 日本电气株式会社 | 音频设备和振荡单元 |
CN103210421B (zh) | 2010-12-09 | 2016-03-02 | 松下电器产业株式会社 | 物体检测装置及物体检测方法 |
JP5801237B2 (ja) | 2012-03-29 | 2015-10-28 | パナソニック株式会社 | 部位推定装置、部位推定方法、および部位推定プログラム |
JP2014135948A (ja) * | 2013-01-18 | 2014-07-28 | Dainippon Printing Co Ltd | 培地情報登録システム、コロニー検出装置、プログラム及び衛生管理システム |
US10043084B2 (en) * | 2016-05-27 | 2018-08-07 | Toyota Jidosha Kabushiki Kaisha | Hierarchical context-aware extremity detection |
JP6750931B1 (ja) * | 2020-02-10 | 2020-09-02 | 株式会社 テクノミライ | デジタル・モーションフォーミュラ・セキュリティシステム、方法及びプログラム |
CN112651322B (zh) * | 2020-12-22 | 2024-05-24 | 北京眼神智能科技有限公司 | 脸颊遮挡检测方法、装置及电子设备 |
-
2003
- 2003-12-05 JP JP2003407063A patent/JP4419543B2/ja not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009145346A (ja) * | 2007-12-14 | 2009-07-02 | Palo Alto Research Center Inc | 検知システム |
US20170213360A1 (en) * | 2011-01-24 | 2017-07-27 | Panasonic Corporation | Posture state estimation apparatus and posture state estimation method |
US10600207B2 (en) * | 2011-01-24 | 2020-03-24 | Panasonic Corporation | Posture state estimation apparatus and posture state estimation method |
Also Published As
Publication number | Publication date |
---|---|
JP2005165923A (ja) | 2005-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4318465B2 (ja) | 人物検出装置および人物検出方法 | |
JP6891351B2 (ja) | 多特徴検索と変形に基づく人体髪型の生成方法 | |
JP4419543B2 (ja) | 検出装置および検出方法 | |
JP4571628B2 (ja) | 顔認識システム及び方法 | |
Samko et al. | Selection of the optimal parameter value for the Isomap algorithm | |
Liang et al. | Pose-invariant facial expression recognition | |
Liu | Discriminative face alignment | |
CN111310659B (zh) | 基于增进式图卷积神经网络的人体动作识别方法 | |
US8311954B2 (en) | Recovery of 3D human pose by jointly learning metrics and mixtures of experts | |
US20060210168A1 (en) | Apparatus and method for generating shape model of object and apparatus and method for automatically searching for feature points of object employing the same | |
JP2011022994A (ja) | パターン処理装置及びその方法、プログラム | |
KR20130013122A (ko) | 객체 자세 검색 장치 및 방법 | |
CN114616588A (zh) | 图像处理装置、图像处理方法以及存储图像处理程序的非暂时性计算机可读介质 | |
JP2005351814A (ja) | 検出装置および検出方法 | |
Krzeszowski et al. | Gait recognition based on marker-less 3D motion capture | |
Lanitis et al. | Locating facial features using genetic algorithms | |
Yu et al. | Explicit occlusion detection based deformable fitting for facial landmark localization | |
JP7054760B2 (ja) | 物体認識システム、位置情報取得方法、及びプログラム | |
JP4238537B2 (ja) | 画像処理装置 | |
Deng et al. | View-invariant gait recognition based on deterministic learning and knowledge fusion | |
CN114998966A (zh) | 基于特征融合的人脸表情识别方法 | |
Jaiswal et al. | Brief description of image based 3D face recognition methods | |
Soni et al. | Deep neural network and 3D model for face recognition with multiple disturbing environments | |
Zhang et al. | Intelligent measurement of spinal curvature using cascade gentle AdaBoost classifier and region-based DRLSE | |
JP2022518036A (ja) | ユーザのバイオメトリック特性を有する画像中の物体を識別することにより当該ユーザのidを検証するための方法、及び当該方法を実施するためのモバイル装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061025 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090814 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090825 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091015 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091110 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091123 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121211 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4419543 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131211 Year of fee payment: 4 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |