JP2017062634A - 画像処理装置及び対象物領域特定方法 - Google Patents

画像処理装置及び対象物領域特定方法 Download PDF

Info

Publication number
JP2017062634A
JP2017062634A JP2015187518A JP2015187518A JP2017062634A JP 2017062634 A JP2017062634 A JP 2017062634A JP 2015187518 A JP2015187518 A JP 2015187518A JP 2015187518 A JP2015187518 A JP 2015187518A JP 2017062634 A JP2017062634 A JP 2017062634A
Authority
JP
Japan
Prior art keywords
area
unit
region
person
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015187518A
Other languages
English (en)
Inventor
中嶋 康博
Yasuhiro Nakajima
康博 中嶋
伸之 松井
Nobuyuki Matsui
伸之 松井
浩一朗 田附
Koichiro Tatsuki
浩一朗 田附
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
University of Hyogo
Original Assignee
Glory Ltd
University of Hyogo
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd, University of Hyogo filed Critical Glory Ltd
Priority to JP2015187518A priority Critical patent/JP2017062634A/ja
Publication of JP2017062634A publication Critical patent/JP2017062634A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】1枚の静止画像から迅速かつ効率的に対象物を抽出すること。【解決手段】画像処理装置は、静止画像である入力画像データから人物の像を含む矩形領域を切出し(1)、矩形領域を複数の小領域に分割する(2)。画像処理装置は、分割により得られた複数の小領域を組合せてテンプレートとの類似度である人型度合を求め、人型度合が最も高くなる小領域の組合せを算出する(3)。画像処理装置は、各テンプレートについて算出した小領域の組合せのうち、人型度合が最も高い小領域の組合せで形成される領域を人物領域として特定する(4)。所定の条件を満たすまで(5)、領域分割と小領域組合せ算出を繰り返し、得られた人物領域と対応するテンプレートの向きを出力する(6)。【選択図】図1

Description

本発明は、人物等の対象物が含まれる1枚の静止画像から迅速かつ効率的に対象物の領域(以下、「対象物領域」と言う)を抽出する画像処理装置及び対象物領域特定方法に関する。
従来、静止画像から対象物の画像を抽出する技術が知られている。この従来技術を用いて、対象物の外観に関する特徴を照合することで、監視カメラ等で撮影された静止画像から特定の対象物を検出することができる。
例えば、特許文献1には、複数フレームの背景画像同士の差分画像の最大濃度値の平均値と背景画像の濃度値を用いて、動体像を抽出するための閾値を環境に応じて自動的に設定することで、様々な環境下において入力画像中から動体像のみを抽出することを可能にした動体像抽出方法が開示されている。
また、特許文献2には、画像を小領域に分割し、人物領域に含まれる最初の小領域を顔検出などで検出して、検出した領域に隣接する領域が人物領域に含まれるか否かを、画像情報の分布と遺伝的プログラミングによる人物モデルとを用いて評価、結合する処理を行い、人物領域に成長させていくもので、画像の色や輝度などが均一ではない小領域同士を結合して、精度の高い人物抽出を行うことができるようにした人物抽出方法が開示されている。
また、特許文献3には、三次元センサによりあらかじめ取得した複数の背景の距離画像を平均化した平均画像を取得し、入力された距離画像と平均画像の差分値が大きい画素を人物領域として抽出することで、衣服特徴を用いた人物検索を容易に行うことができるようにした人物探索システムが開示されている。
特許第3062394号公報 特開2001−209795号公報 特開2013−186546号公報
一般に、カメラで遠くの人や物を撮影するときは、焦点距離が長いレンズが使用される。このときカメラが振動すると、撮影した画像にブレが生じやすい。
例えば、監視カメラは高い位置に設置されることが多く、カメラから人や物までの距離が遠い。一方で、容姿や形状を確認することが出来る解像度で撮影することが要求される。そのため、高解像度のカメラが使用されるとともに、長い焦点距離のレンズが使用される。監視カメラは、電車の駅や交通量の多い道路側の建物など、振動の影響を受けやすい場所に設置されることが多い。また、屋外に設置された監視カメラは、風の影響で揺れることが多い。このように監視カメラが振動すると、フレームと次のフレームとの間でブレが生じる。
上記特許文献1のように複数フレームの背景画像を用いる技術では、フレーム間にブレが生じると背景画像が取得できず、動体像のみを抽出することができない。また、上記特許文献2のものは、連続した画像の差分情報を用いて作成した人物マスク画像(人物領域)をもとに人物モデルが形成されるため、上記引用文献1と同様に、連続した画像が入手できない場合には、人物抽出を行うことができない。加えて、上記特許文献2のものは、最初の小領域の検出に失敗するとその後の一連の処理が行えず、人物モデルを形成できない。
また、上記特許文献3のものは、三次元センサにより取得した複数の背景の距離画像の存在が前提となるため、複数の背景の距離画像が入手できない場合には、人物領域を抽出することができない。
このように、上記特許文献1〜3に代表される従来技術では、複数の背景画像の存在が前提となるため、このような背景画像が適正に取得できない場合には、対象物の領域を抽出することができないという問題がある。
これらのことから、事前に背景画像を取得することなく、いかにして1枚の静止画像から迅速かつ効率的に対象物を抽出できるようにするかが重要な課題となっている。なお、かかる課題は、画像から人物の領域を抽出する場合だけではなく、車両や動物等の他の対象物を抽出する場合にも同様に生ずる課題である。
本発明は、上記従来技術の課題を解決するためになされたものであって、1枚の静止画像から迅速かつ効率的に対象物を抽出することができる画像処理装置及び対象物領域特定方法を提供することを目的とする。
上記の課題を解決するため、本発明は、所定の対象物が写り込んだ画像データを複数の領域に分割処理する分割処理部と、各領域が前記所定の対象物の一部であるか否かを判定する判定部と、前記判定部により前記所定の対象物の一部であると判定された領域の組合せからなる対象物領域を特定する特定部とを備えたことを特徴とする。
また、本発明は、上記の発明において、前記所定の対象物を抽出するためのテンプレートを記憶するテンプレート記憶部をさらに備え、前記判定部は、前記テンプレートに基づいて、各領域が前記所定の対象物の一部であるか否かを判定することを特徴とする。
また、本発明は、上記の発明において、複数の領域を組合せた形状と前記テンプレートの類似度合いを示す対象物度合いを算定する算定部をさらに備え、前記判定部は、前記算定部により算定された対象物度合いを利用して、各領域が前記所定の対象物の一部であるか否かを判定することを特徴とする。
また、本発明は、上記の発明において、前記テンプレート記憶部は、前記所定の対象物の態様に応じた複数のテンプレートを記憶し、前記判定部は、前記算定部により算定された対象物度合いを利用して、テンプレートごとに各領域が前記所定の対象物の一部であるか否かを判定し、前記特定部は、テンプレートごとの領域の組合せのうち、前記対象物度合いが高いテンプレートの領域の組合せからなる対象物領域及び態様を特定することを特徴とする。
また、本発明は、上記の発明において、前記分割処理部は、前記画像データを、少なくとも色又は濃淡が同一又は類似する複数の隣接画素により形成される複数の領域に分割処理することを特徴とする。
また、本発明は、上記の発明において、前記判定部は、前記分割処理部により分割処理された全ての領域について、各領域が前記所定の対象物の一部であるか否かを判定することを特徴とする。
また、本発明は、上記の発明において、前記画像データの比較の対象となる登録画像データと該登録画像データ内の対象物の態様を記憶する登録画像データ記憶部と、前記対象物の態様に基づいて、前記登録画像データ記憶部に記憶された登録画像データと、前記特定部により特定された対象物領域に対応する画像データとを照合処理する照合処理部とをさらに備えたことを特徴とする。
また、本発明は、所定の対象物が写り込んだ画像データから該対象物が存在する対象物領域を特定する画像処理装置の対象物領域特定方法であって、前記画像データを複数の領域に分割処理する分割処理ステップと、前記分割処理ステップにより分割処理された各領域が前記所定の対象物の一部であるか否かを判定する判定ステップと、前記判定ステップにより前記所定の対象物の一部であると判定された領域の組合せからなる対象物領域を特定する特定ステップとを含んだことを特徴とする。
本発明によれば、所定の対象物が写り込んだ画像データを複数の領域に分割処理する分割処理部と、各領域が前記所定の対象物の一部であるか否かを判定する判定部と、前記判定部により前記所定の対象物の一部であると判定された領域の組合せからなる対象物領域を特定する特定部とを備えるよう構成したので、1枚の静止画像から迅速かつ効率的に対象物を抽出することが可能となる。
図1は、本実施例に係る人物領域の特定についての説明図である。 図2は、画像処理装置の構成を示すブロック図である。 図3は、テンプレートについての説明図である。 図4は、画像処理装置の処理手順を示すフローチャートである。 図5は、単色の領域画像データを用いた輝度値のクラス分類処理の処理手順を示すフローチャートである。 図6は、平均輝度値及び標準偏差の初期化についての説明図である。 図7は、小領域組合せ算出処理の処理手順を示すフローチャートである。 図8は、人型度合算定処理の処理手順を示すフローチャートである。 図9は、人型度合算定処理についての説明図である。 図10は、領域分割の繰り返しによる効果についての説明図である。
以下、添付図面を参照して、本発明に係る画像処理装置及び対象物領域特定方法の実施例を説明する。なお、本実施例では、人物が写り込んだ静止画像から人物の領域(以下、「人物領域」と言う)と向きを特定する場合について説明するが、本発明は人物領域の特定に限定されるものではなく、車両等の他の対象物を特定する場合にも適用することができる。
まず、本実施例に係る人物領域の特定について説明する。図1は、本実施例に係る人物領域の特定についての説明図である。本実施例に係る画像処理装置は、カメラなどが撮像した静止画像を入力画像データとして用い、人物領域の特定を行う。
画像処理装置は、入力画像データから人物の像を含む矩形領域を切出す(1)。人物の像を含む矩形領域の切出しは、例えば向きの異なる人物の形状をそれぞれモデル化した複数のテンプレートを用意し、パターンマッチングで対象を探して周辺を切り出すことにより行えばよい。なお、パターンマッチングの手法については、SVMなどの機械学習や部分空間法など、任意の手法を用いることができる。矩形領域を切り出した後、画像処理装置は、矩形領域を複数の小領域に分割する領域分割を行う(2)。領域分割においては、対象の領域内の画素を色に基づいて分類し、同一分類の画素が連続する領域を1つの小領域とする。
画像処理装置は、領域分割により得られた複数の小領域から、人型となる小領域の組合せを算出する(3)。この組合せの算出には、人物の形状をモデル化したテンプレートを使用する。テンプレートは、前向き、横向きなど、人物の向きに応じて予め複数用意する。
具体的には、画像処理装置は、小領域の組合せと各テンプレートとの類似度を人型度合として算定する。この人型度合は、小領域の組合せによって形成される領域の形状が、どれだけ人型らしいかを示す指標となる。
画像処理装置は、各テンプレートについて、人型度合が最も高くなる小領域の組合せを算出する。図1に示した例では、前向きのテンプレートと横向きのテンプレートについて、それぞれ人型度合が最も高くなる小領域の組合せを算出している。
画像処理装置は、各テンプレートについて算出した小領域の組合せのうち、人型度合が最も高い小領域の組合せで形成される領域を人物領域として特定する(4)。図1では、前向きのテンプレートについて算出した小領域の組合せが人物領域となる。画像処理装置は、特定した人物領域に対し、さらに領域分割と小領域組合せ算出を行う。この繰り返しにより、人物領域を精度よく特定することができる。
領域分割と小領域組合せ算出の繰り返しは、所定の条件を満たした場合に終了する(5)。所定の条件としては、「人物領域に変化が無くなった場合、若しくは予め指定した回数の繰り返しを行った場合」を用いることが好適である。
所定の条件が満たされたならば、画像処理装置は、最終的に特定された人物領域に対応するテンプレートの向きを入力画像データ内の人物の向きとして特定する。そして、最終的に特定した人物領域と向きを出力する(6)。
このようにして特定された人物領域に対応する画像を入力画像データから抽出することで、画像処理装置は、入力画像データから人物の像を迅速かつ効率的に抽出することができる。また、抽出した人物の向きについても特定が可能である。
次に、本実施例に係る画像処理装置の構成について説明する。図2は、画像処理装置の構成を示すブロック図である。図2に示すように、画像処理装置20は、カメラ10と接続される。また、画像処理装置20は、記憶部21及び制御部22を有する。
記憶部21は、ハードディスク装置や不揮発性メモリ等の記憶デバイスであり、複数のテンプレートデータ21aと、1又は複数の登録データ21bを記憶する。
テンプレートデータ21aは、人物形状モデルデータと向きデータとを対応付けたデータである。人物形状モデルデータは、人物像の形状をモデル化したデータである。向きデータは、対応付けられた人物形状モデルデータ内の人物がどの方向を向いているかを示す。テンプレートデータ21aは、正面向き、横向き、後ろ向きなどの複数の向きについてそれぞれ1以上用意することが好適である。また、複数のテンプレートデータ21aがそれぞれ有する人物形状モデルデータは、人物像の大きさが同一となるように正規化されている。
人物形状モデルデータとして具体的にどのようなデータを用いるかは、人型度合の算定手法により異なる。本実施例では、人型度合の算定に部分空間法を用いる場合について説明を行うが、この場合には、人物形状モデルデータは、画素数を次元としたベクトルデータとなる。具体的には、人物の向きごとに人物形状モデルデータを生成する場合には、向きごとに例えばそれぞれ20枚の学習データを用意して、20次元の部分空間を得る。図3は、20次元の部分空間の基底を画像化したものである。人物形状モデルデータを画素数を次元としたベクトルデータとする場合には、「人物像の大きさが同一となるように正規化」する処理は、画素数を揃える、すなわち、各人物形状モデルデータで次元数を一致させる処理となる。なお、人型度合いの算定は、部分空間法に関わらず、他の画像照合方法を用いてもよい。他の画像照合方法を用いる場合には、態様ごとの平均画像やエッジ画像など、照合方法に応じた人物形状モデルデータが用いられる。また、照合方法に応じて正規化の要否やその方法が異なることになる。
図2に戻り、説明を続ける。登録データ21bは、登録画像データと向きデータとを対応付けたデータである。登録画像データは、照合の対象となる人物を予め撮像して得られた画像データである。向きデータは対応付けられた登録画像データ内の人物がどの方向を向いているかを示す。登録データ21bは、同一人物の複数の向きについてそれぞれ登録することが好ましい。
制御部22は、画像処理装置を全体制御する制御部であり、矩形領域切出部22a、領域分割部22b、小領域組合せ部22c、人型度合算定部22d、人物領域特定部22e、向き特定部22f、登録処理部22g及び照合処理部22hを有する。実際には、これらの機能部に対応するプログラムを図示しないROMや不揮発性メモリに記憶しておき、これらのプログラムをCPU(Central Processing Unit)にロードして実行することにより、矩形領域切出部22a、領域分割部22b、小領域組合せ部22c、人型度合算定部22d、人物領域特定部22e、向き特定部22f、登録処理部22g及び照合処理部22hにそれぞれ対応するプロセスを実行させることになる。
矩形領域切出部22aは、カメラ10が撮像した入力画像データから人物の像を含む矩形領域を切出す処理を行う。入力画像データからの矩形領域の切出しには、既に説明したように、向きの異なる人物の形状をそれぞれモデル化した複数のテンプレートを用意し、パターンマッチングで対象を探して周辺を切り出すことにより行う。なお、この切り出し用のテンプレートは、向きのみではなく大きさも異ならせておき、パターンマッチングにより人物像の大きさも判明する様に構成する。
矩形領域切出部22aは、切出した矩形領域の縦横比を維持しつつ、矩形領域内の人物像の大きさを人物形状モデルデータの大きさに合わせる正規化を行う。具体的には、パターンマッチングで判明した人物像の大きさが人物形状モデルデータの大きさに一致するように矩形領域の拡大縮小を行うことになる。かかる正規化により人物像の大きさと人物形状モデルデータとを略同一とすることができる。
領域分割部22bは、対象の領域を小領域に分割する処理部である。領域分割部22bが対象とする領域は、矩形領域切出部22aにより切り出された矩形領域や、後述する人物領域特定部22eにより出力された人物領域である。
領域分割部22bは、まず、対象の領域に含まれる画素を色に基づいて分類する。具体的には、領域分割部22bは、画素の色をRGBの輝度値に分離し、各輝度値を所定数のクラスに分類する。そして、RGBのクラスの組合せを画素のクラスとする。例えば、RGBそれぞれの輝度値を5つのクラスに分類すれば、各画素は125クラスのいずれかに分類されることになる。RGBの輝度値の分類の詳細については後述する。
領域分割部22bは、同一のクラスに分類された画素が連続する領域を1つの小領域とする。このようにして分割された小領域の内部は、同一の物体の一部であると仮定する。従って、人物領域は複数の小領域の組合せとなり、人物領域と背景領域との境界は、人物領域を形成する小領域の境界となる。
小領域組合せ部22cは、領域分割部22bによる分割の結果から人型となる小領域の組合せを算出する処理部である。具体的には、小領域組合せ部22cは、小領域をランダムに選択し、選択した小領域を背景領域として除外した場合に人型度合が増加するか否かを判定する。なお、本実施例では小領域をランダムに選択する場合を例に説明を行うが、諸領域の選択は所定の順番で行うこととしてもよい。
小領域組合せ部22cは、選択した小領域を除外した場合に人型度合が増加するならば、選択した小領域を背景領域とし、人型度合が増加しなければ、選択した小領域を人物領域とする。小領域組合せ部22cは、かかる判定を全ての小領域について行い、人物領域として残る小領域の組合せを求める。すなわち、小領域組合せ部22cは、領域分割部22bによる分割の結果から背景領域を削り、より人型らしい小領域の組合せを求めることになる。
ここで、小領域組合せ部22cは、複数のテンプレートデータ21aを順次選択し、選択したテンプレートデータ21aを使用した場合に最も人型度合が高くなる小領域の組合せを求める。そして、複数のテンプレートデータ21aについてそれぞれ得られた小領域の組合せのうち、人型度合が最も高い小領域の組合せを人物領域特定部22eに出力する。
人型度合算定部22dは、小領域組合せ部22cが判定に用いる人型度合を算定する処理部である。人型度合算定部22dは、小領域の組合せによって形成される領域の形状と小領域組合せ部22cにより選択されたテンプレートデータ21aの人物形状モデルデータとの類似度を人型度合として算定する。
人物領域特定部22eは、小領域組合せ部22cにより出力された小領域の組合せを結合し、1つの人物領域とする。人物領域特定部22eは、結合により得られた人物領域を領域分割部22bに出力する。これにより、1つの人物領域は改めて小領域に分割され、その後、小領域組合せ部22cによる組合せが行われる。
人物領域特定部22eは、所定の条件を満たした場合には、結合により得られた人物領域を最終の人物領域として特定する。この最終の人物領域は、領域分割部22bによる分割、小領域組合せ部22cによる組合せ、人物領域特定部22eによる結合を一連の処理として複数回繰り返した場合に、人型度合が最も高い小領域の組合せである。所定の条件としては、「領域分割部22b及び小領域組合せ部22cによる処理の前後で人物領域に変化がない場合、若しくは領域分割部22b及び小領域組合せ部22cによる処理を予め指定された回数反復した場合」とすることが好適である。
向き特定部22fは、人物領域特定部22eにより最終の人物領域が特定された場合に、最終の人物の向きを特定する処理部である。具体的には、向き特定部22fは、最終の人物領域の人型度合を算定する際に使用したテンプレートデータ21aを選択し、選択したテンプレートデータ21aの向きデータを最終の人物の向きデータとして特定する。すなわち、人型度合が最も高い小領域の組合せに対応するテンプレートの向きデータが特定されることになる。
登録処理部22gは、登録データ21bを記憶部21に登録する処理部である。ここで、画像処理装置20は、登録モードと照合モードのいずれかの動作モードで動作する。登録モードは、カメラ10からの入力画像データを登録に用いる動作モードである。照合モードは、カメラ10からの入力画像データを照合に用いる動作モードである。
登録処理部22gは、画像処理装置20が登録モードで動作している場合に、人物領域特定部22eにより特定された最終の人物領域に対応する画像データを入力画像データから抽出し、登録画像データとする。そして、向き特定部22fにより特定された向きデータを登録画像データに対応付けて登録データ21bを生成し、記憶部21に格納する。このとき、登録の対象となる人物の氏名等の入力を受け付けて登録データ21bに対応付けてもよい。
照合処理部22hは、カメラ10からの入力画像データを用いて照合を行う処理部であり、画像処理装置20が照合モードで動作している場合に使用される。照合処理部22hは、まず、人物領域特定部22eにより特定された最終の人物領域に対応する画像データを入力画像データから抽出し、照合画像データとする。そして、向き特定部22fにより特定された向きデータに基づいて登録データ21bを参照し、向きデータが一致する登録データ21bを選択する。
照合処理部22hは、選択した登録データ21bの登録画像データと照合画像データとを比較し、照合値を算定する。照合値の算定には、相互相関を求めるなど、画像照合に用いられる任意の手法を用いることができる。なお、本実施例では、登録画像データと照合画像データとが似ているほど高い照合値が得られるものとする。
照合処理部22hは、照合値が閾値を超える登録データ21bが存在するならば、該登録データ21bに示された人物と入力画像データに含まれる人物とが同一であるとの照合結果を出力する。登録データ21bに氏名等が対応付けられていれば、対応付けられた氏名等を合せて出力可能である。
このように、画像処理装置20は、入力画像データから人物を精度よく抽出するとともに人物の向きを特定し、人物と向きを対応付けて登録することができる。また、照合に際しては、向きが一致する登録データ21bを選択して照合を行うことにより、照合の精度を高めることができる。
次に、画像処理装置20の処理手順について説明する。図4は、画像処理装置20の処理手順を示すフローチャートである。カメラ10から入力画像データを受け付けると、矩形領域切出部22aは、入力画像データから人物の像を含む矩形領域を切出す(ステップS101)。また、矩形領域切出部22aは、切出した矩形領域内の人物像の大きさを人物形状モデルデータの大きさに合わせる(ステップS102)。このとき、矩形領域の縦横比は維持する。このように切出して正規化された矩形領域が、ステップS103における対象の領域となる。
領域分割部22bは、対象の領域に含まれる画素をRGBの輝度値に基づいて分類する画素分類処理を行う(ステップS103)。領域分割部22bは、同一のクラスに分類された画素が連続する領域を1つの小領域とすることで、対象の領域を小領域に分割する(ステップS104)。具体的には、上記のステップS103により、各画素が属するR、G、Bそれぞれのクラスが特定されるため、注目画素のR、G、Bのクラスと、該注目画素の4近傍に位置する隣接画素のR、G、Bのクラスとがそれぞれ一致する場合には、同一の小領域として連結することになる。
小領域組合せ部22cは、対象の領域内に所在する小領域を組合せ、人型となる小領域の組合せを算出する小領域組合せ算出処理を行う(ステップS105)。小領域組合せ算出処理の詳細については後述するが、小領域組合せ算出処理では、向きの異なる複数のテンプレートデータ21aを順次選択し、選択したテンプレートデータ21aを使用した場合に最も人型度合が高くなる小領域の組合せを求める。そして、複数のテンプレートデータ21aについてそれぞれ得られた小領域の組合せのうち、人型度合が最も高い小領域の組合せを処理結果として出力する。人物領域特定部22eは、小領域組合せ算出処理により得られた小領域の組合せを結合し、人物領域を特定する(ステップS106)。
人物領域特定部22eは、以前に特定した人物領域がメモリ等に保持されているならば、ステップS106で新たに特定した人物領域が以前に特定した人物領域から変化しているか否かを判定する(ステップS107)。
以前に特定した人物領域が存在しない、若しくは新たに特定した人物領域が以前に特定した人物領域から変化している場合(ステップS107;Yes)、人物領域特定部22eは、新たに特定した人物領域をメモリ等に保持させ、人物領域の特定を予め指定した回数反復したかを判定する(ステップS108)。
人物領域の特定回数が予め指定した回数に満たないならば(ステップS108;No)、人物領域特定部22eは、新たに特定した人物領域を領域分割部22bに出力することで、ステップS103に移行する。
新たに特定した人物領域が以前に特定した人物領域から変化していない場合(ステップS107;No)、若しくは人物領域の特定を予め指定した回数反復した場合(ステップS108;Yes)、人物領域特定部22eは、新たに特定した人物領域を最終の人物領域とする。
人物領域特定部22eにより最終の人物領域が特定されると、向き特定部22fは、最終の人物領域の人型度合を算定する際に使用したテンプレートデータ21aを選択し、選択したテンプレートデータ21aの向きデータを最終の人物の向きデータとして特定し(ステップS109)、処理を終了する。最終の人物領域と最終の人物の向きデータは、この後、登録や照合に用いられる。
次に、図4のステップS103に示した画素分類処理について詳細に説明する。領域分割部22bは、まず、画素の色をRGBの輝度値に分離することで、RGBにそれぞれ対応する単色の領域画像データを生成する。そして、単色の領域画像データを用いた輝度値のクラス分類処理をRGBそれぞれについて行う。この結果、RGBの輝度値は、それぞれ所定数のクラスに分類される。その後、領域分割部22bは、RGBのクラスの組合せを画素のクラスとする。
図5は、単色の領域画像データを用いた輝度値のクラス分類処理の処理手順を示すフローチャートである。まず、領域分割部22bは、単色の領域画像データから輝度値のヒストグラムを生成する(ステップS201)。なお、本実施例では、輝度値は0〜255の値をとるものとする。
領域分割部22bは、各クラスに属する輝度値が正規分布をとり、ヒストグラムが各クラスの正規分布の重ね合せであるものとして、クラスの設定を行う。具体的には、領域分割部22bは、ヒストグラムのピークをクラスの数だけ選択し、各クラスの平均輝度値μk及び標準偏差σkを初期化する(ステップS202)。ここで、kはクラスを示す。例えば、クラスの数が5であれば、1≦k≦5である。初期化においては、クラスの平均輝度値μkは、対応するピークの輝度値とする。また、クラスの標準偏差σkは、ヒストグラムにおいて隣接するクラスとの平均輝度値の差の半分とする。
平均輝度値μk及び標準偏差σkを初期化し、各画素が属するクラスの初期値をランダムに与える。領域分割部22bは、領域画像データから注目画素を選択する(ステップS203)。選択した注目画素の座標を(i,j)とする。領域分割部22bは、注目画素について、各クラスに属する確率P(k)を求める(ステップS204)。各クラスに属する確率P(k)は、次の式により求められる。
Figure 2017062634
ここで、Ed(k)は、注目画素の輝度値xi,jをクラスの分布に対して評価した値であり、
Figure 2017062634
により求められる。なお、パラメータTは、クラスの平均輝度値μk及び標準偏差σkの更新回数をtとして、T=4.0/ln(e+t)により定まる。初期化時点では、t=0である。
m(k)は、注目画素と隣接画素の輝度値の差を評価した値であり、
Figure 2017062634
により求められる。ここで、ne(xi,j)は、座標(i,j)の隣接画素の集合であり、Class(x)は画素xの属するクラスである。
領域分割部22bは、注目画素について各クラスに属する確率P(k)を求めた後、最大の確率P(k)をもつクラスkを注目画素のクラスとする(ステップS205)。その後、領域分割部22bは、領域画像データの全ての画素を注目画素として選択したか否かを判定する(ステップS206)。未選択の画素が残っていれば(ステップS206;No)、領域分割部22bは、ステップS203に移行し、注目画素を選択する。
全ての画素を注目画素として選択済であるならば(ステップS206;Yes)、領域分割部22bは、各画素に対するクラス分類の結果を用い、各クラスの平均輝度値μk及び標準偏差σkを更新する(ステップS207)。この更新により、更新回数tはインクリメントされる。
ステップS207の後、領域分割部22bは、以前に行った各画素のクラス分類の結果がメモリ等に保持されているならば、新たなクラス分類の結果が以前のクラス分類の結果と異なっている画素が存在するか否かを判定する(ステップS208)。
以前に行った各画素のクラス分類の結果が存在しない、若しくは新たなクラス分類の結果が以前のクラス分類の結果と異なる画素が存在する場合(ステップS208;Yes)、領域分割部22bは、新たに行った各画素のクラス分類の結果をメモリ等に保持させ、更新回数tが予め指定された値に達したか否かを判定する(ステップS209)。
更新回数tが予め指定された値に達していなければ(ステップS209;No)、領域分割部22bは、領域画像データの全ての画素を未選択の状態とし、ステップS203に移行する。
新たなクラス分類の結果が以前のクラス分類の結果と異なる画素が存在しない場合(ステップS208;No)、若しくは更新回数tが予め指定された値に達した場合(ステップS209;Yes)、領域分割部22bは、単色の領域画像データを用いた輝度値のクラス分類処理を終了する。
図6は、平均輝度値μk及び標準偏差σkの初期化についての説明図である。図6では、単色の領域画像データから生成した輝度値のヒストグラムを示している。また、図6では、クラスの数を5とし、k=1からk=5までの5つのピークをヒストグラムから選択した状態を示している。
各クラスの平均輝度値μkは、対応するピークの輝度値である。また、クラスの標準偏差σkは、ヒストグラムにおいて隣接するクラスとの平均輝度値の差の半分としている。なお、隣接するクラスが2つ存在する場合には、平均輝度値の差が小さい方を採用する。
次に、図4のステップS105に示した小領域組合せ算出処理について詳細に説明する。図7は、小領域組合せ算出処理の処理手順を示すフローチャートである。まず、小領域組合せ部22cは、複数のテンプレートデータ21aからテンプレートデータ21aを1つ選択する(ステップS301)。また、小領域組合せ部22cは、人物領域の候補を設定する(ステップS302)。なお、初回の人物領域の候補の設定では、領域分割部22bによる分割の結果として得られた全ての小領域を人物領域の候補に設定し、2回目以降は後述するステップS310の時点で人物領域として選択されている小領域を改めて人物領域の候補として設定とする。
さらに、小領域組合せ部22cは、人物領域の候補として設定された全ての小領域からなる小領域の組合せと、選択したテンプレートデータ21aとを用いて人型度合を算定する人型度合算定処理を人型度合算定部22dに行わせ(ステップS303)、人型度合の初期値としてメモリ等に保持させる。
その後、小領域組合せ部22cは、人物領域の候補である小領域をランダムに選択し(ステップS304)、選択した小領域を背景領域とする(ステップS305)。そして、背景領域を除外した小領域の組合せと、選択したテンプレートデータ21aとを用いて人型度合を算定する人型度合算定処理を人型度合算定部22dに行わせる(ステップS306)。
小領域組合せ部22cは、ステップS306により算定された人型度合とメモリに保持された人型度合とを比較し、人型度合が増加したか否かを判定する(ステップS307)。
人型度合が増加したならば(ステップS307;Yes)、ステップS304で選択した小領域を背景領域として確定し(ステップS308)、メモリ等に保持された人型度合を更新する。一方、人型度合が増加していなければ(ステップS307;No)、ステップS304で選択した小領域を人物領域とする(ステップS309)。このときには、メモリ等に保持された人型度合の更新は行わない。
ステップS308又はステップS309の後、小領域組合せ部22cは、全ての小領域が選択済であるか、すなわち、人物領域の候補のまま残った小領域がないかを判定する(ステップS310)。未選択の小領域が残っているならば(ステップS310;No)、小領域組合せ部22cは、ステップS304に移行し、人物領域の候補である小領域をランダムに選択する。
全ての小領域が選択済であるならば(ステップS310;Yes)、小領域組合せ部22cは、人物領域として残った小領域の組合せに変化があるか否かを判定する(ステップS311)。具体的には、小領域組合せ部22cは、以前に求めた小領域の組合せがメモリ等に保持されているならば、ステップS302〜ステップS309で新たに求めた小領域の組合せが以前に求めた小領域の組合せから変化しているか否かを判定する。
以前に求めた小領域の組合せが存在しない、若しくは新たに求めた小領域の組合せが以前に求めた小領域の組合せから変化している場合(ステップS311;Yes)、小領域組合せ部22cは、新たに求めた小領域の組合せをメモリ等に保持させ、ステップS302〜ステップS309の処理を予め指定した回数反復したかを判定する(ステップS312)。
ステップS302〜ステップS309の処理の反復が予め指定した回数に満たないならば(ステップS312;No)、小領域組合せ部22cは、ステップS302に移行し、ステップS302からの処理を再度実行する。
新たに求めた小領域の組合せが以前に求めた小領域の組合せから変化していない場合(ステップS311;No)、若しくはステップS302〜ステップS309の処理を予め指定した回数反復した場合(ステップS312;Yes)、小領域組合せ部22cは、メモリ等に保持された小領域の組合せ及び人型度合を選択中のテンプレートデータ21aに対応付け、テンプレートデータ21aを全て選択済であるか否かを判定する(ステップS313)。
未選択のテンプレートデータ21aが残っている場合(ステップS313;No)、小領域組合せ部22cは、ステップS301に移行し、未選択のテンプレートデータ21aからいずれかを選択する。
テンプレートデータ21aを全て選択済である場合(ステップS313;Yes)、小領域組合せ部22cは、テンプレートを対応付けられた人型度合の高い順にソートする(ステップS314)。そして、対応付けられた人型度合の低いテンプレートを選択対象から除外することで、小領域組合せ算出処理を繰り返した場合に使用されるテンプレート数を削減する(ステップS315)。例えば、使用されるテンプレート数を半分にすればよい。その後、小領域組合せ部22cは、人型度合が最も高い小領域の組合せを出力し(ステップS316)、小領域組合せ算出処理を終了する。
既に説明したように、小領域組合せ算出処理の出力として得られた小領域の組合せは、人物領域特定部22eにより結合され、領域分割部22bにより分割され、再度小領域組合せ算出処理を行なうことになる。このため、ステップS315によりテンプレート数を削減することで、以降の小領域組合せ算出処理を高速化することができる。分割、組合せ、結合の処理を繰り返したとしても、元々の人物の像自体は同一であり、人型度合が低く算定されるテンプレートは以降の処理でも人型度合が顕著に高くなることを見込めないからである。
次に、図7のステップS303及びS306に示した人型度合算定処理について詳細に説明する。図8は、人型度合算定処理の処理手順を示すフローチャートである。人型度合算定部22dは、小領域のうち、人物領域及び人物領域の候補を「1」、背景領域を「0」としてシルエット画像を生成する(ステップS401)。
人型度合算定部22dは、シルエット画像を入力ベクトルに変換する(ステップS402)。入力ベクトルへの変換では、各画素を次元とし、画素の値を対応する次元の値とする。すなわち、縦n画素、横m画素のシルエット画像からは、n×m次元の入力ベクトルが求められ、各次元の値は「0」又は「1」となる。
人型度合算定部22dは、入力ベクトルを人物形状モデルデータの部分空間に射影し、射影ベクトルを求める(ステップS403)。人型度合算定部22dは、入力ベクトルと射影ベクトルのなす角の余弦を人型度合として算定し(ステップS404)、人型度合算定処理を終了する。
図9は、人型度合算定処理についての説明図である。図9に示すように、人物領域及び人物領域の候補を「1」、背景領域を「0」として二値化することで、シルエット画像が生成される。人型度合算定部22dは、シルエット画像を入力ベクトルvに変換する。シルエット画像のサイズが縦48画素、横96画素であれば、入力ベクトルvは48×96次元のベクトルとなる。
人型度合算定部22dは、入力ベクトルvを人物形状モデルデータの部分空間Lに射影し、射影ベクトルpvを求める。図9では、部分空間Lを張る基底が2つの場合を示している。人型度合算定部22dは、入力ベクトルvと射影ベクトルpvのなす角θからcosθを計算する。人型度合算定部22dは、このcosθを人型度合とする。
このように、本実施例では人型度合の算定に部分空間法を用いている。そのため、テンプレートデータ21aが有する人物形状モデルデータは、例えば画素数を次元としたベクトルデータとして持つことができる。なお、人型度合いの算定は、部分空間法に関わらず、他の画像照合方法を用いてもよい。他の画像照合方法を用いる場合には、態様ごとの平均画像やエッジ画像など、照合方法に応じた人物形状モデルデータが用いられる。
次に、領域分割の繰り返しによる効果について説明する。図10は、領域分割の繰り返しによる効果についての説明図である。図10では、入力画像データうち4つの小領域(小領域a、小領域b、小領域c、小領域d)を例示している。なお、ここでは説明を簡明にするため、クラスが2つである場合について説明する。
4つの小領域のうち、小領域aは人物領域とすべき領域であり、小領域b、小領域c、小領域dは背景領域とすべき領域であるものとする。また、各領域はRGBで分離された後の単色であるものとする。さらに、小領域aは小領域bのみと隣接し、小領域bは小領域a及び小領域cのみと隣接し、小領域cは小領域b及び小領域dのみと隣接し、小領域dは小領域cのみと隣接しているものとする。
各小領域の輝度値を個別にヒストグラムにとると、小領域cの輝度値は他の小領域よりも顕著に大きいが、他の小領域(a,b,d)の輝度値は類似している。このため、全体のヒストグラムでは、小領域a、小領域b、小領域dの区別をつけることはできない。
したがって、1回目の領域分割の結果では、小領域a、小領域b、小領域dはクラスC1に分類され、小領域cのみがクラスC2となる。そして、小領域aと小領域bは同一クラスで隣接しているため、1回目の領域分割では1つの小領域となる。小領域cは、クラスが異なるために別の小領域となり、小領域dはクラスが同一の小領域a及び小領域bと隣接していないために別の小領域となる。
1回目の領域分割の結果を受けて組合せを算出し、背景領域を除外すれば、小領域aと小領域bが残る。人物領域とすべき小領域aと背景領域とすべき小領域bが1回目の領域分割では1つの小領域とされたためである。
1回目の組合せ算出により残された小領域aと小領域bに対して、2回目の領域分割を行なえば、小領域c及び小領域dの輝度値が除外されたため、全体のヒストグラムで小領域aと小領域bを区別しやすくなっている。このため、小領域aと小領域bを異なるクラスに分類することができ、2回目の組合せ算出を行なえば小領域bを背景領域として除外できる。
上述してきたように、本実施例に係る画像処理装置20は、対象の画像データを複数の小領域に分割処理し、各小領域が人物の一部であるか否かを判定し、人物の一部であると判定された領域の組合せからなる人物領域を特定する。このため、1枚の静止画像から迅速かつ効率的に人物を抽出することができる。
また、本実施例に係る画像処理装置20は、各小領域が人物の一部であるか否を判定する場合に、顔などの特定の部位を検出する必要が無く、全ての小領域を判定対象とする。このため、顔部分の解像度が低い場合や後ろ向きで顔が写っていない場合などであっても人物領域の特定が可能となる。
なお、本実施例では、人物領域の特定を例に説明を行ったが、本発明は人物領域の特定に限定されるものではなく、車両等の他の対象物を特定する場合にも適用することができる。
また、本実施例では、人物形状モデルデータに向きデータを対応付け、人物の向きを特定する場合を例に説明を行ったが、向きに限らず、姿勢などの態様を特定する場合にも適用可能である。すなわち、姿勢など対象物の形状に影響を与える要素毎にテンプレートを用意し、対象物領域の特定を行えば、特定した対象物領域に対応するテンプレートから姿勢などの要素を特定できるのである。このとき、向きと姿勢の組合せなどを要素としてもよい。
また、本実施例では、カラー画像を処理の対象とし、RGBの輝度値をそれぞれ所定数のクラスに分類する場合を例に説明を行ったが、単色の濃淡画像を処理の対象とすることもできる。この場合には、画素の濃淡を示す輝度値を所定数のクラスに分類することになる。
また、本実施例に図示した各構成は機能概略的なものであり、必ずしも物理的に図示の構成をされていることを要しない。すなわち、各装置の分散・統合の形態は図示のものに限られず、その全部または一部を各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
例えば、対象物領域を特定する装置と照合を行う装置とを分離してもよい。また、テンプレートデータと登録データを異なる記憶部に記憶させることとしてもよい。さらに、各種データをネットワーク経由で取得する構成であってもよい。
また、本実施例に示した各処理は適宜変形して実施することができる。例えば、本実施例では、テンプレートデータ21aにおける人物形状モデルデータの大きさを統一しておき、入力画像データから切り出した人物像の大きさを人物形状モデルデータに合わせて正規化する処理を例示した。この処理の変形例として、入力画像データから人物像をそのままの大きさで切出し、人物形状モデルデータの大きさを異ならせて用意した複数のテンプレートデータ21aから適切なテンプレートデータ21aを選択してもよい。
本発明に係る画像処理装置及び対象物領域特定方法は、人物等の対象物が含まれる1枚の静止画像から迅速かつ効率的に対象物を抽出する場合に適している。
10 カメラ
20 画像処理装置
21 記憶部
21a テンプレートデータ
21b 登録データ
22 制御部
22a 矩形領域切出部
22b 領域分割部
22c 小領域組合せ部
22d 人型度合算定部
22e 人物領域特定部
22f 向き特定部
22g 登録処理部
22h 照合処理部

Claims (8)

  1. 所定の対象物が写り込んだ画像データを複数の領域に分割処理する分割処理部と、
    各領域が前記所定の対象物の一部であるか否かを判定する判定部と、
    前記判定部により前記所定の対象物の一部であると判定された領域の組合せからなる対象物領域を特定する特定部と
    を備えたことを特徴とする画像処理装置。
  2. 前記所定の対象物の抽出するためのテンプレートを記憶するテンプレート記憶部をさらに備え、
    前記判定部は、
    前記テンプレートに基づいて、各領域が前記所定の対象物の一部であるか否かを判定する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 複数の領域を組合せた形状と前記テンプレートの類似度合いを示す対象物度合いを算定する算定部をさらに備え、
    前記判定部は、
    前記算定部により算定された対象物度合いを利用して、各領域が前記所定の対象物の一部であるか否かを判定する
    ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記テンプレート記憶部は、
    前記所定の対象物の態様に応じた複数のテンプレートを記憶し、
    前記判定部は、
    前記算定部により算定された対象物度合いを利用して、テンプレートごとに各領域が前記所定の対象物の一部であるか否かを判定し、
    前記特定部は、
    テンプレートごとの領域の組合せのうち、前記対象物度合いが高いテンプレートの領域の組合せからなる対象物領域及び態様を特定する
    ことを特徴とする請求項3に記載の画像処理装置。
  5. 前記分割処理部は、
    前記画像データを、少なくとも色又は濃淡が同一又は類似する複数の隣接画素により形成される複数の領域に分割処理する
    ことを特徴とする請求項1〜4のいずれか一つに記載の画像処理装置。
  6. 前記判定部は、
    前記分割処理部により分割処理された全ての領域について、各領域が前記所定の対象物の一部であるか否かを判定する
    ことを特徴とする請求項1〜5のいずれか一つに記載の画像処理装置。
  7. 前記画像データの比較の対象となる登録画像データと該登録画像データ内の対象物の態様を記憶する登録画像データ記憶部と、
    前記対象物の態様に基づいて、前記登録画像データ記憶部に記憶された登録画像データと、前記特定部により特定された対象物領域に対応する画像データとを照合処理する照合処理部と
    をさらに備えたことを特徴とする請求項4に記載の画像処理装置。
  8. 所定の対象物が写り込んだ画像データから該対象物が存在する対象物領域を特定する画像処理装置の対象物領域特定方法であって、
    前記画像データを複数の領域に分割処理する分割処理ステップと、
    前記分割処理ステップにより分割処理された各領域が前記所定の対象物の一部であるか否かを判定する判定ステップと、
    前記判定ステップにより前記所定の対象物の一部であると判定された領域の組合せからなる対象物領域を特定する特定ステップと
    を含んだことを特徴とする対象物領域特定方法。
JP2015187518A 2015-09-24 2015-09-24 画像処理装置及び対象物領域特定方法 Pending JP2017062634A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015187518A JP2017062634A (ja) 2015-09-24 2015-09-24 画像処理装置及び対象物領域特定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015187518A JP2017062634A (ja) 2015-09-24 2015-09-24 画像処理装置及び対象物領域特定方法

Publications (1)

Publication Number Publication Date
JP2017062634A true JP2017062634A (ja) 2017-03-30

Family

ID=58428865

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015187518A Pending JP2017062634A (ja) 2015-09-24 2015-09-24 画像処理装置及び対象物領域特定方法

Country Status (1)

Country Link
JP (1) JP2017062634A (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006004032A (ja) * 2004-06-16 2006-01-05 Nippon Telegr & Teleph Corp <Ntt> 対象物検出装置、対象物検出方法およびこの方法のプログラム
JP2008134940A (ja) * 2006-11-29 2008-06-12 Nippon Telegr & Teleph Corp <Ntt> 対象物検出装置、対象物検出方法および対象物検出プログラム並びにそのプログラムを記録した記録媒体
JP2013246567A (ja) * 2012-05-24 2013-12-09 Nec Casio Mobile Communications Ltd 情報処理装置、認証方法およびプログラム
JP2015032991A (ja) * 2013-08-02 2015-02-16 株式会社ニコン 撮像装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006004032A (ja) * 2004-06-16 2006-01-05 Nippon Telegr & Teleph Corp <Ntt> 対象物検出装置、対象物検出方法およびこの方法のプログラム
JP2008134940A (ja) * 2006-11-29 2008-06-12 Nippon Telegr & Teleph Corp <Ntt> 対象物検出装置、対象物検出方法および対象物検出プログラム並びにそのプログラムを記録した記録媒体
JP2013246567A (ja) * 2012-05-24 2013-12-09 Nec Casio Mobile Communications Ltd 情報処理装置、認証方法およびプログラム
JP2015032991A (ja) * 2013-08-02 2015-02-16 株式会社ニコン 撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
鈴木 温之,外3名: "実環境下での個人認証に向けた歩行映像データベースの構築", 情報処理学会 研究報告 コンピュータビジョンとイメージメディア(CVIM) 2015−CVIM−19, JPN6019044495, 11 May 2015 (2015-05-11), JP, pages 1 - 7, ISSN: 0004154673 *

Similar Documents

Publication Publication Date Title
JP7190842B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP6655878B2 (ja) 画像認識方法及び装置、プログラム
US9773189B2 (en) Recognition apparatus and recognition method
JP7122815B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP4505362B2 (ja) 赤目検出装置および方法並びにプログラム
CN105740780B (zh) 人脸活体检测的方法和装置
US12002259B2 (en) Image processing apparatus, training apparatus, image processing method, training method, and storage medium
US10706326B2 (en) Learning apparatus, image identification apparatus, learning method, image identification method, and storage medium
JP2014089626A (ja) 画像検出装置及び制御プログラム並びに画像検出方法
US9047673B2 (en) Apparatus and method for extracting target, and recording medium storing program for performing the method
JP2006146626A (ja) パターン認識方法および装置
JP6702716B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2010176380A (ja) 情報処理装置および方法、プログラム、並びに記録媒体
JP4946878B2 (ja) 画像識別装置及びプログラム
US20180107877A1 (en) Image processing apparatus, image processing method, and image processing system
WO2012046426A1 (ja) 物体検出装置、物体検出方法および物体検出プログラム
JP2017102622A (ja) 画像処理装置、画像処理方法及びプログラム
CN111274964B (zh) 一种基于无人机视觉显著性分析水面污染物的检测方法
JP4496005B2 (ja) 画像処理方法および画像処理装置
JP6486084B2 (ja) 画像処理方法、画像処理装置、及びプログラム
JP6855175B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2001167273A (ja) 顔面検出方法及びその装置、コンピュータ可読媒体
KR20160148806A (ko) 방향정보를 이용한 객체 검출기 생성 방법, 이를 이용한 객체 검출 장치 및 방법
JP2017062634A (ja) 画像処理装置及び対象物領域特定方法
JP6350331B2 (ja) 追尾装置、追尾方法及び追尾プログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20151021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20151021

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180718

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190704

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191119