JP2011128916A - オブジェクト検出装置および方法並びにプログラム - Google Patents

オブジェクト検出装置および方法並びにプログラム Download PDF

Info

Publication number
JP2011128916A
JP2011128916A JP2009287063A JP2009287063A JP2011128916A JP 2011128916 A JP2011128916 A JP 2011128916A JP 2009287063 A JP2009287063 A JP 2009287063A JP 2009287063 A JP2009287063 A JP 2009287063A JP 2011128916 A JP2011128916 A JP 2011128916A
Authority
JP
Japan
Prior art keywords
weak
image
face
weak classifier
score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2009287063A
Other languages
English (en)
Inventor
Yi Hu
軼 胡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009287063A priority Critical patent/JP2011128916A/ja
Publication of JP2011128916A publication Critical patent/JP2011128916A/ja
Ceased legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】判別器の数を多くすることなく、精度よく顔等のオブジェクトを検出する。
【解決手段】判別可能な顔の向きが異なる複数の判別器により顔を判別する。判別器は複数の弱判別器からなる。各判別器を、顔の向きを判別する前段の弱判別器群WC−F、および各判別器が判別可能な向きの顔を判別する後段の弱判別器群WC−Bに分割する。前段の弱判別器群WC−Fにおいて第1のスコアを、後段の弱判別器群WC−Bにおいて第2のスコアを取得し、判別器のそれぞれにおける第1のスコアおよび第2のスコアの乗算値の、すべての判別器についての和に基づいて、顔を検出する。
【選択図】図1

Description

本発明は、検出対象画像から人物の顔等のオブジェクトを検出するオブジェクト検出装置および方法並びにオブジェクト検出方法をコンピュータに実行させるためのプログラムに関するものである。
従来、デジタルカメラによって撮影されたスナップ写真における人物の顔領域の色分布を調べてその肌色を補正したり、監視システムのデジタルビデオカメラで撮影されたデジタル映像中の人物を認識したりすることが行われている。このような場合、デジタル画像中の人物の顔に対応する顔領域を検出する必要があるため、これまでに、デジタル画像中の顔を検出する手法が種々提案されている。その中でもとくに検出精度、ロバスト性が優れているとされる顔検出の手法として、サンプル画像を用いたマシンラーニングの学習により生成された、複数の弱い判別器(弱判別器)を結合した判別器を用いる手法が知られている。
この手法は、複数の異なる顔のサンプル画像からなる顔サンプル画像群と、顔でないことが分かっている複数の異なる非顔サンプル画像とからなる非顔サンプル画像群とを用いて、顔であることの特徴を学習させ、ある画像が顔の画像であるか否かを判別できる判別器を生成して用意しておき、顔の検出対象となる画像(以下、検出対象画像という)において部分画像を順次切り出し、その部分画像が顔であるか否かを上記の判別器を用いて判別し、顔であると判別した部分画像の領域を抽出することにより、検出対象画像上の顔を検出する手法である。
ところで、上述した判別器に入力される画像には、顔が正面を向いた画像のみならず、顔が画像平面上において回転している(以下「面内回転」という)画像や、顔が画像平面内において回転している(以下、「面外回転」という)画像が入力される。ここで、1つの判別器が判別可能な顔の回転範囲は限られており、面内回転している画像では30度程度、面外回転している画像では30度〜60度程度の回転であれば顔か非顔かを判別することができる。このため、より広い範囲の顔の向きに対応するために、それぞれの向きの画像を判別可能な複数の判別器を用意し、すべての判別器に、特定の向きの顔であるか否かの判別を行わせ、最終的な各判別器の出力から顔であるか否かを判定する、マルチクラス判別手法が提案されている。
また、マルチクラス判別手法において、各判別器を構成する複数の弱判別器(弱判別器群)の前段にて顔が含まれるか否かを判別し、最も大きいスコアが得られた判別器においてのみ、後段の弱判別器群にて顔のであるか否かの判別を行うことにより、判別のための処理を低減させる手法が提案されている(特許文献1、非特許文献1参照)。さらに、すべての判別器について判別を行い、すべての判別器の出力を加算して、検出対象画像に顔が含まれるか否かを判別する手法も提案されている。
特開2007−66010号公報 Paul Viola and Michael Jones, Rapid object detection using a boosted cascade of features, IEEE CVPR, 2001
上述したマルチクラス判別手法においては、判別可能な顔の向きが異なる複数の判別器は、それぞれが判別する向きの顔の画像を学習しているため、判別可能な向きの顔については、判別を精度良く行うことができる。しかしながら、あらゆる向きの顔を検出できるように判別器を用意するとなると、1つの判別器において広い角度に亘る向きの顔を判別できるように判別器を構成する必要がある。具体的には、正面を向いた顔の角度を0度とした場合、左右にそれぞれ0度±15度、30度±15度、60度±15度、および90度±15度を向いた顔の画像を学習のためのサンプル画像として用意し、0度±15度のサンプル画像により正面顔を判別可能な判別器を、30度±15度のサンプル画像により左右30度を向いた顔を判別可能な判別器を、60度±15度のサンプル画像により左右60度を向いた顔を判別可能な判別器を、90度±15度のサンプル画像により左右90度を向いた顔を判別可能な判別器をそれぞれ学習する必要がある。
しかしながら、このように広い角度範囲の顔を判別できるようにすると、1つの判別器における弱判別器の数が非常に多くなり、その結果、顔の検出を高速に行うことができなくなってしまう。また、このように判別器を構成した場合は、30度単位で向きが異なる顔を精度良く検出できるが、対応する角度の間の角度(例えば15度、45度)を向いた顔の検出精度はやはり低下してしまう。
本発明は上記事情に鑑みなされたものであり、判別器の数を多くすることなく、精度よく顔等の特定種類のオブジェクトを検出することを目的とする。
本発明によるオブジェクト検出装置は、判別対象のオブジェクトから抽出した特徴量をあらかじめ学習させた複数の弱判別器からなる、判別可能な前記オブジェクトの向きがそれぞれ異なる複数の判別器を有し、検出対象画像から抽出した特徴量を用いて、該検出対象画像から前記オブジェクトを検出する判別手段を備えたオブジェクト検出装置において、
前記各判別器の複数の弱判別器が前段の弱判別器群および後段の弱判別器群に分割されてなり、前記前段の弱判別器群が、前記オブジェクトの向きを判別する学習がなされ、前記後段の弱判別器群が、該各後段の弱判別器が属する判別器が判別可能な前記オブジェクトの向きに対応したオブジェクトを検出する学習がなされてなり、
前記判別手段は、前記前段の弱判別器群の出力である第1のスコア、および前記後段の弱判別器の出力である第2のスコアを取得し、前記複数の判別器のそれぞれにおける前記第1のスコアおよび前記第2のスコアの乗算値の、すべての前記判別器についての和に基づいて、前記オブジェクトを検出する手段であることを特徴とするものである。
なお、本発明によるオブジェクト検出装置においては、前記前段の弱判別器群が、前記複数の判別器における少なくとも一部において前記特徴量を共有してなることが好ましい。
弱判別器群は、複数の弱判別器が線形に結合した構造を有しており、弱判別器は、検出対象画像における少なくとも1つの特徴量を算出し、この特徴量を用いてオブジェクトを判別するものである。このため、各弱判別器は、複数のサンプル画像における特徴量を用いてオブジェクトを判別するための学習がなされる。「前段の弱判別器群が、前記複数の判別器群の少なくとも一部において特徴量を共有してなる」とは、複数の判別器間における対応する弱判別器が、同一の特徴量を用いて学習がなされていることを意味する。このように同一の特徴量を用いて学習がなされた弱判別器は、検出対象画像における同一の特徴量を用いてオブジェクトを判別するものとなる。なお、複数の判別器群間における対応する弱判別器のすべてについて、共通する特徴量により学習がなされている必要はなく、少なくとも一部の弱判別器が共通する特徴量により学習がなされていればよい。
また、複数の弱判別器は前段の弱判別器群および後段の弱判別器群に分割されているが、とくに前段の弱判別器群を、各判別器群間において特徴量を共有させる場合には、前段の弱判別器群を後段の弱判別器群よりも多くすることが好ましい。
また、本発明によるオブジェクト検出装置においては、前記前段の弱判別器群と前記後段の弱判別器群とが連続して接続されてなるものとしてもよい。
また、本発明によるオブジェクト検出装置においては、前記判別器を、前記オブジェクトが所定の方向を向いた基準サンプル画像、並びに該基準サンプル画像の前記判別対象を該基準サンプル画像の平面において回転させた、回転角度が異なる複数の面内回転サンプル画像、および前記基準サンプル画像内の前記判別対象の向きを回転させた、回転角度が異なる複数の面外回転サンプル画像の少なくとも一方を用いて学習されてもよい。
本発明によるオブジェクト検出方法は、判別対象のオブジェクトから抽出した特徴量をあらかじめ学習させた複数の弱判別器からなる、判別可能な前記オブジェクトの向きがそれぞれ異なる複数の判別器を有し、検出対象画像から抽出した特徴量を用いて、該検出対象画像から前記オブジェクトを検出するオブジェクト検出方法において、
前記各判別器の複数の弱判別器が前段の弱判別器群および後段の弱判別器群に分割されてなり、前記前段の弱判別器群が、前記オブジェクトの向きを判別する学習がなされ、前記後段の弱判別器群が、該各後段の弱判別器が属する判別器が判別可能な前記オブジェクトの向きに対応したオブジェクトを検出する学習がなされてなり、
前記前段の弱判別器群の出力である第1のスコア、および前記後段の弱判別器の出力である第2のスコアを取得し、
前記複数の判別器のそれぞれにおける前記第1のスコアおよび前記第2のスコアの乗算値の、すべての前記判別器についての和に基づいて、前記オブジェクトを検出することを特徴とするものである。
なお、本発明によるオブジェクト検出方法をコンピュータに実行させるためのプログラムとして提供してもよい。
本発明によれば、前段の弱判別器群によりオブジェクトの向きを表す第1のスコアが取得され、後段の弱判別器群により各判別器が判別可能なオブジェクトの向きに対応したオブジェクトであることを表す第2のスコアが取得される。そして、複数の判別器のそれぞれにおける第1のスコアおよび第2のスコアの乗算値の、すべての判別器についての和に基づいて、オブジェクトが検出される。このため、判別可能なオブジェクトの向きがそれぞれ異なる複数の判別器による判別結果を統合して、オブジェクトの検出を行うことができ、その結果、特許文献1および非特許文献1の手法のように特定の向きのみのオブジェクトを検出するものと比較して、向きが異なるオブジェクトを柔軟に検出できることとなる。したがって、弱判別器の数を増加させることなく、オブジェクトの検出精度を向上させることができる。
また、前段の弱判別器群を、複数の判別器の少なくとも一部において特徴量を共有させることにより、複数の判別器の少なくとも一部における1つの判別処理を1つの弱判別器において行うことができることとなる。したがって、複数の判別器において、前段の弱判別器群の数を少なくすることができ、その結果、前段の弱判別器群における弱判別器の数を少なくすることができる。
また、前段の弱判別器群と前記後段の弱判別器群とを連続して接続されてなるものとすることにより、前段の弱判別器群と前記後段の弱判別器群とを連続して行うことができるため、処理速度を向上させることができる。
本実施形態における顔検出システムの構成を示すブロック図 ウィンドウが走査される様子を示す模式図 顔検出部の構成を示す概略ブロック図 候補検出部の構成を示す概略ブロック図 判別部の構成を示すブロック図 特徴量の共有を説明するための図 判別器が行う処理を示すフローチャート 本実施形態による顔検出システムにおける処理の流れを示すフローチャート 詳細な検出処理のフローチャート 顔サンプル画像の例を示す図 判別器の学習方法を示すフローチャート 弱判別器のヒストグラムを導出する方法を示す図 前段の弱判別器群により顔であると判別されたサンプル画像の例を示す図
以下、図面を参照して本発明の実施形態について説明する。図1は本発明のオブジェクト検出装置を適用した顔検出システムの構成を示す概略ブロック図である。この顔検出システムは、デジタル画像中に含まれる顔を検出するものである。図1に示すように、顔検出システム1は、顔を検出する対象となる検出対象画像S0を多重解像度化して解像度が異なる複数の画像(以下、解像度画像という)を生成する多重解像度化部10と、検出対象画像S0に含まれる顔を表す画像(以下顔画像とする)F0を検出する顔検出部20とを備える。
多重解像度化部10は、検出対象画像S0の解像度(画像サイズ)を変換することにより、その解像度を所定の解像度、例えば、VGAサイズ(640×480画素)の矩形サイズの画像に規格化する。そして、多重解像度化部10は、規格化された検出対象画像S0を基本として、解像度変換を行うことにより、図2に示すように、解像度の異なる複数の解像度画像S1〜S3…を生成する。なお、規格化された検出対象画像S0も解像度画像に含めるものとする。
なお、本実施形態においては、図2に示すように、設定された画素数(例えば32画素×32画素)を有するウィンドウWを、解像度画像Sk(k=0〜m))において走査させ、ウィンドウWにより囲まれた領域を切り出すことにより設定画素数からなる部分画像Bを生成するようになっている。これにより、高解像度の解像度画像においてウィンドウW内に顔(判別対象)が収まらなかった場合であっても、低解像度画像上においてはウィンドウW内に収めることが可能となり、各種サイズの顔の検出を確実に行うことができる。
顔検出部20は、多重解像度化部10が生成した複数の解像度画像Sk(以下、解像度画像群Sgとする)のそれぞれに対して顔検出処理を施し、各解像度画像Skにおける顔画像F0を検出するものである。図3は顔検出部20の構成を示す概略ブロック図である。図3に示すように、顔検出部20は、後述の各部を制御して顔検出処理におけるシーケンス制御を主に行う検出制御部21と、解像度画像群Sgの中から顔検出処理に供する解像度画像Skをサイズの大きいものから順に順次選択する解像度画像選択部22と、解像度画像選択部22により選択された解像度画像Skにおいて、顔画像であるか否かの判別対象となる部分画像Bを切り出すウィンドウWを、その位置をずらしながら順次設定するウィンドウ設定部23と、その切り出された部分画像Bが顔画像であるか否かを判別する候補判別部24と、顔画像であると判別された部分画像(以下候補画像CPとする)が顔画像であるか否かをさらに判別する判別部25とから構成されている。
検出制御部21は、解像度画像群Sgの各解像度画像Skに対して、顔画像F0を検出するという顔検出処理を行うべく、解像度画像選択部22およびウィンドウ設定部23を制御するものである。例えば、適宜、解像度画像選択部22に対して解像度画像Skの選択を指示したり、ウィンドウ設定部23に対してウィンドウWの設定条件を指示したり、得られた検出結果を出力したりする。なお、ウィンドウ設定条件には、ウィンドウWを設定する画像上の範囲、ウィンドウWの移動間隔(検出の粗さ)等が含まれる。
解像度画像選択部22は、検出制御部21の制御により、解像度画像群Sgの中から顔検出処理に供する解像度画像Skをサイズの大きい順に(解像度の細かい順に)順次選択するものである。なお、本実施形態における顔検出の手法が、各解像度画像上で順次切り出された部分画像Bについてその部分画像Bが顔画像であるか否かを判別し、顔画像であると判別した部分画像Bの領域を抽出することにより、検出対象画像S0における顔画像を検出する手法であるから、この解像度画像選択部22は、検出対象画像S0における検出すべき顔の大きさを毎回変えながら設定するものであって、検出すべき顔の大きさを小から大へ変えながら設定するものと同等なものということができる。
ウィンドウ設定部23は、検出制御部21により設定されたウィンドウ設定条件に基づいて、解像度画像選択部22により選択された解像度画像Sk上でウィンドウWを移動させながら順次設定する。
候補判別部24は、部分画像Bが顔画像である否かの2値判別を行う機能を有し、図4に示すように複数の弱判別器WCを有する候補判別器30を有する。ここで、候補判別器30は、画像平面上において判別対象が回転している面内回転画像と、画像内の判別対象の向きが回転している面外回転画像との双方を顔であると判別するようになっている。
候補判別器30は、複数の弱判別器WCが線形に結合したカスケード構造を有しており、弱判別器WCは、部分画像Bの画素値(輝度)の分布に係る少なくとも1つの特徴量を算出することにより部分画像Bから特徴量を抽出し、この特徴量を用いて部分画像Bが顔画像であるか否かを判別するものである。なお、候補判別器24は弱判別器WCおける判別結果を用いて顔画像であるか否かの判別を行うようになっている。本実施形態においては、各弱判別器WCがそれぞれ算出する判定のためのスコアの総和により、部分画像Bが顔画像であるか否かの判別結果CRを出力するものとなっている。
判別部25は、候補判別部24により部分画像Bが顔画像であると判別された場合に、顔画像であると判別された部分画像B、すなわち候補画像CPが、顔画像であるか否かをさらに判別する判別器である。図5は判別部25の構成を示す図である。図5に示すように判別部34は、判別可能な顔の向きが異なるnクラスの判別器25−1〜25−n、および判別結果出力部25−Lを有する。ここで、nクラスの判別器25−i(i=1〜n)は、画像平面上における顔の向きを判別可能な面内回転判別器と、画像内の顔の向きを判別可能な面外回転判別器とを有する。面内回転判別器は、画像の縦方向と顔の中心線との角度が0度の顔を判別可能な0度面内回転判別器、および30度の顔を判別可能な30度面内回転判別器等、例えば30度〜330度の範囲で面内回転角度が30度ずつ異なる向きの顔を判別可能な複数の判別器からなる。なお、例えば0度面内回転判別器は回転角度が0度を中心に−15度(=345度)〜+15度の範囲内にある顔を判別できるようになっている。
同様に、面外回転判別器は、画像内の顔の向き(角度)が0度の顔、すなわち正面顔を判別可能な0度面外回転判別器、および30度の顔を判別可能な30度面外回転判別器等、例えば−90度〜+90度の範囲で面外回転角度が30度ずつ異なる向きの顔を判別可能な判別器からなる。なお、例えば0度面外回転判別器は回転角度が0度を中心に−15度〜+15度の範囲内にある顔を判別できるようになっている。
また、各判別器25−iは、図5に示すように、複数の弱判別器WCが線形に結合したカスケード構造を有しており、弱判別器WCは、候補画像CPの画素値(輝度)の分布に係る少なくとも1つの特徴量を算出し、この特徴量を用いて候補画像CPが顔画像であるか否かを判別するものである。
また、各判別器25−iに含まれる複数の弱判別器WCは、前段の弱判別器群WC−Fおよび後段の弱判別器群WC−Bに分割されている。前段の弱判別器群WC−Fは、候補画像CPについての面内および面外の向きを判別するためのものであり、後段の弱判別器群WC−Bは、弱判別器群WCが属する判別器25−iが判別可能な顔の向きに対応した顔であるか否かを判別するためのものである。このため、本実施形態においては、前段の弱判別器群WC−Fと後段の弱判別器群WC−Bとにおいて、学習に使用するサンプル画像が若干異なるものとなっている。なお、弱判別器の学習については後述する。そして、本実施形態においては、すべての判別器25−iの前段の弱判別器群WC−Fにおいて最終的に得られるスコアを出力し、さらにすべての判別器25−iの後段の弱判別器群WC−Bにおいて最終的に得られるスコアを出力する。なお、前段の弱判別器群WC−Fが出力するスコアを第1のスコア、後段の弱判別器群WC−Bが出力するスコアを第2のスコアと称する。
なお、各判別器25−iを構成する前段の弱判別器群WC−Fに含まれる少なくとも一部の弱判別器WCは、判別器25−i間において特徴量を共有している。すなわち、少なくとも一部の弱判別器WCが同一の特徴量を用いて学習がなされており、候補画像CPにおける同一の特徴量を用いて顔の向きの判別を行うものとなっている。なお、図5においては、特徴量を共有していることを、弱判別器WCに斜線を付与して示すものとする。
ここで、図5においては、説明のために各判別器25−iの特徴量を共有している弱判別器WCに斜線を付与して示しているが、各判別器25−iにおいて、特徴量を共有している弱判別器は1つ作成すれよいこととなる。図6は特徴量の共有を説明するための図である。なお、図6においては、説明のために、4つの判別器25−1〜25−4のみを示し、さらに各判別器25−1〜25−4の前段の4つの弱判別器WCのみを示している。なお、各判別器25−1〜25−4における1〜4段目の弱判別器をそれぞれ弱判別器25−1−1,25−1−2のように示す。
図6の上側に示すよう、1段目の弱判別器が判別器25−1〜25−4のすべてにおいて特徴量を共有し、2段目の弱判別器が、弱判別器25−1−2,25−2−2,25−3−2において特徴量を共有し、3段目の弱判別器が、弱判別器25−1−3,25−4−3において特徴量を共有し、4段目の弱判別器が、弱判別器25−2−4,25−3−4,25−3−4において特徴量を共有しているものとする。この場合、特徴量を共有している弱判別器は1つの判別器のみ作成すればよいことから、判別器25−1〜25−4における1〜4段目までの弱判別器は図6の下側に示すように結合されることとなる。したがって、弱判別器の数を16から8に減少させることができる。
次いで、判別部25における具体的な処理について説明する。図7は判別部25に含まれる各判別器25−iが行う処理を示すフローチャートである。なお、以下の説明においては、各判別器25−iにおける処理を並列に行っているが、各判別器25−iにおける処理を順次行うようにしてもよいことはもちろんである。
まず、各判別器25−iにおける前段の弱判別器群WC−Fにおいて、1番目の弱判別器WCが、候補画像CPに対してこの候補画像CPにおける顔の方向を判別するために、候補画像CPから特徴量を算出し(ステップST1)、特徴量に応じて後述するスコアテーブルを参照してスコアを算出し(ステップST2)、直前の弱判別器が算出したスコアに自己の算出したスコアを加算して累積スコアを算出する(ステップST3)。なお、最初の弱判別器では、直前の弱判別器がないので、自己の算出したスコアをそのまま累積スコアとする。次いで、前段の弱判別器群WC−Fのすべてについての累積スコアを算出したか否かを判定し(ステップST4)、ステップST4が否定されると、次の弱判別器による判別に移行し(ステップST5)、ステップST1に戻る。これにより、前段の弱判別器群WC−Fを構成するすべての弱判別器についての累積スコアが算出される。ステップST5が肯定されると、累積スコアを第1のスコアP1−i(i=1〜n)として出力する(ステップST6)。
続いて、後段の弱判別器群WC−Bによる処理に進む。ステップST6に引き続き、後段の弱判別器群WC−Bにおける1番目の弱判別器WCが、候補画像CPから特徴量を算出し(ステップST7)、特徴量に応じてスコアテーブルを参照してスコアを算出し(ステップST8)、直前の弱判別器が算出したスコアに自己の算出したスコアを加算して累積スコアを算出する(ステップST9)。なお、後段の弱判別器群WC−Bにおける最初の弱判別器では、直前の弱判別器がないので、自己の算出したスコアを第1のスコアP1−iに加算して累積スコアとする。次いで、後段の弱判別器群WC−Bのすべてについての累積スコアを算出したか否かを判定し(ステップST10)、ステップST10が否定されると、次の弱判別器による判別に移行し(ステップST11)、ステップST7に戻る。これにより、前段の弱判別器群WC−Fを構成するすべての弱判別器についての累積スコアが算出される。ステップST10が肯定されると、後段の弱判別器群WC−Bについての累積スコアを第2のスコアP2−i(i=1〜n)として出力する(ステップST12)。
次いで、判別結果出力部25−Lが、第1のスコアP1−iおよび第2のスコアP2−iを乗算し、乗算した結果をすべての判別器25−iについて加算して、候補画像CPについての最終スコアPLを算出する(ステップST13)。最終スコアPLは下記の式(1)により算出される。なお、Σはi=1〜nまでの(P1−i)×(P2−i)の値を加算することを表す
PL=Σ(P1−i)×(P2−i) (1)
そして、判別結果出力部25−Lが、最終スコアPLが所定の閾値以上であるか否かによって候補画像CPが顔画像であるか否かを判別し、判別結果Rを出力する(ステップST14)。
なお、本実施形態において、検出制御部21、解像度画像選択部22、ウィンドウ設定部23、候補判別部24および判別部25が、本発明の判定手段として機能する。
次に、顔検出システム1における処理の流れについて説明する。図8は本実施形態による顔検出システムにおける処理の流れを示すフローチャートである。図8に示すように、多重解像度化部10に検出対象画像S0が入力されると(ステップST21)、多重解像度化部10が検出対象画像S0を多重解像度化して複数の解像度画像Skからなる解像度画像群Sgを生成する(ステップST22)。顔検出部20は、検出制御部21からの指示を受けた解像度画像選択部22により、解像度画像群Sgの中から画像サイズの大きい順に解像度画像Skを選択する(ステップST23)。次に検出制御部21が、ウィンドウ設定部23に対して、ウィンドウWを初期位置に、すなわち選択された解像度画像上の最初の注目画素にウィンドウWを設定する指示を行う(ステップST24)。ウィンドウ設定部23は、選択された解像度画像上にウィンドウWを設定し、設定したウィンドウWにより部分画像Bを切り出し(ステップST25)、部分画像Bを候補判別部24に入力する(ステップST26)。
候補判別部24は、入力される部分画像Bに対して、部分画像Bが顔画像であるか否かの判別を行い、検出制御部21がその判別結果CRを取得し(ステップST27)、判別結果CRが部分画像Bが顔画像であるというものであるか否かを判定する(ステップST28)。判別結果CRが部分画像Bが顔画像でないというものであった場合(ステップST28否定)、検出制御部21は、現在切り出された部分画像Bが最後の注目画素に位置する部分画像、すなわち最後の部分画像であるか否かを判定し(ステップST29)、部分画像Bが最後の部分画像でないと判定された場合には、ウィンドウWを設定する位置を次の注目画素の位置(すなわち次の位置)に設定し(ステップST30)、ステップST25に戻って、ウィンドウ設定部23が新たな部分画像Bを切り出す。
なお、部分画像Bが最後の部分画像であると判定された場合には、検出制御部21は、現在選択されている解像度画像Skが最後に判別される画像、すなわち最後の解像度画像Smであるか否かを判定し(ステップST31)、最後の解像度画像Smであると判定された場合には検出処理を終了し、検出結果を出力する(ステップST32)。一方、最後の解像度画像ではないと判定された場合には、ステップST23に戻り、解像度画像選択部22により、現在選択されている解像度画像より1段階サイズが小さい解像度画像が選択され、さらに顔画像の検出が実行される。
一方、判別結果CRが部分画像Bが顔画像であるというものであった場合、候補判別部24は部分画像Bを候補画像CPと判別し、さらに詳細な検出処理を行う(ステップST33)。図9は詳細な検出処理のフローチャートである。詳細な検出処理においては、候補判別部24において部分画像Bが候補画像CPであると判別されていることから、検出制御部21が候補画像CPを判別部25に入力する(ステップST41)。判別部25は、入力される候補画像CPが顔画像であるか否かの判別を行い、検出制御部21がその判別結果Rを取得し(ステップST42)、図8に示すフローチャートのステップST29に進む。以上の処理を行うことにより、検出対象画像S0から種々の方向を向いた顔を含む画像を検出することができる。
なお、検出結果の出力は、検出対象画像S0から顔が検出できなかった場合にはその旨を出力し、検出対象画像S0に顔が検出できた場合には、検出対象画像S0上における顔が検出された部分画像の位置の座標を出力する。
次に、判別器の学習方法(生成方法)について説明する。なお、学習は、判別器の種類、すなわち、判別すべき顔の向き毎に行われる。
学習の対象となるサンプル画像群は、ウィンドウWのサイズで規格化された、顔であることが分かっている複数のサンプル画像(顔サンプル画像群)と、顔でないことが分かっている複数のサンプル画像(非顔サンプル画像群)とからなる。
顔サンプル画像は、判別器25−iのクラス数に応じた顔の向きを有するものとなっている。具体的には、図10(a)に示すように設定位置(例えば中央)に配置された顔が30°ずつ回転した12種類の画像からなる面内回転サンプル画像、および図10(b)に示すように設定位置(例えば中央)に配置された顔の向きが±30°ずつ回転した7種類の画像からなる面外回転サンプル画像からなる。なお、各顔サンプル画像は、顔の位置およびサイズが規格化されている。
そして、このような顔サンプル画像群と非顔サンプル画像群とを用いて顔の向き毎に判別器25−iの学習を行い、19種類の判別器を生成する。以下、具体的な学習手法について説明する。
図11は判別器の学習方法を示すフローチャートである。なお、本実施形態においては、前段の弱判別器群WC−Fは、判別器25−i間において特徴量を共有するものであり、いずれの特徴量を共有させるかは、ユーザが学習時に適宜選択すればよいものである。まず、各サンプル画像には、重みすなわち重要度が割り当てられる。まず、すべてのサンプル画像の重みの初期値が等しく1に設定される(ステップST51)。次に、サンプル画像から特徴量を取得し、その特徴量について弱半別器が作成される(ステップST52)。なお、特徴量としては、サンプル画像におけるあらかじめ定められた2点間における画素値(輝度値)の差分値等を用いることができる。本実施形態においては、特徴量についてのヒストグラムを弱判別器のスコアテーブルの基礎として使用する。
図12を参照しながらある弱判別器の作成について説明する。図12の左側のサンプル画像に示すように、この弱判別器を作成するための特徴量は、顔サンプル画像において、サンプル画像上の右目の中心にある点O1、および右側の頬の部分にある点O2の画素値の差分値とする。なお、ある弱判別器を作成するための特徴量を得るための座標位置はすべてのサンプル画像において同一である。そして顔サンプル画像について特徴量が求められ、そのヒストグラムが作成される。ここで、特徴量がとり得る値は、画像の輝度階調数に依存するが、仮に16ビット階調である場合には、1つの画素値の差分値につき65536通りとなってしまい、学習および検出のために多大なサンプルの数、時間およびメモリを要することとなる。このため、本実施形態においては、特徴量を適当な数値幅で区切って量子化し、n値化する(例えばn=100)。これにより、特徴量の組合せの数はn通りとなるため、特徴量を表すデータ数を低減できる。
同様に、非顔サンプル画像についてもヒストグラムが作成される。なお、非顔サンプル画像については、顔サンプル画像上における特徴量を取得する画素に対応する位置の画素値が用いられる。これらの2つのヒストグラムが示す頻度値の比の対数値をとってヒストグラムで表したものを、図12の一番右側に示す、弱判別器のスコアテーブルの基礎として用いられるヒストグラムである。この弱判別器のヒストグラムが示す各縦軸の値を、以下スコアと称する。この弱判別器によれば、正のスコアに対応する、特徴量の組合せの分布を示す画像は顔である可能性が高く、スコアの絶対値が大きいほどその可能性は高まると言える。逆に、負のスコアに対応する特徴量の組合せの分布を示す画像は顔でない可能性が高く、やはりスコアの絶対値が大きいほどその可能性は高まる。ステップST52では、判別に使用され得る特徴量の組合せについて、上記のヒストグラム形式の複数の弱判別器が作成される。
続いて、ステップST52で作成した複数の弱半別器のうち、画像が特定方向を向いた顔であるか否かを判別するのに最も有効な弱判別器が選択される。最も有効な弱判別器の選択は、各サンプル画像の重みを考慮して行われる。この例では、各弱判別器の重み付き正答率が比較され、最も高い重み付き正答率を示す弱判別器が選択される(ステップST53)。すなわち、最初のステップST53では、各サンプル画像の重みは等しく1であるので、単純にその弱判別器によって画像が特定方向を向いた顔であるか否かが正しく判別されるサンプル画像の数が最も多いものが、最も有効な弱判別器として選択される。一方、後述するステップST55において各サンプル画像の重みが更新された後の2回目のステップST53では、重みが1のサンプル画像、重みが1よりも大きいサンプル画像、および重みが1よりも小さいサンプル画像が混在しており、重みが1よりも大きいサンプル画像は、正答率の評価において、重みが1のサンプル画像よりも重みが大きい分多くカウントされる。これにより、2回目以降のステップST53では、重みが小さいサンプル画像よりも、重みが大きいサンプル画像が正しく判別されることに、より重点が置かれる。
次に、それまでに選択した弱判別器の組合せの正答率、すなわち、それまでに選択した弱判別器を組み合せて使用して(学習段階では、弱判別器は必ずしも線形に結合させる必要はない)各サンプル画像が特定方向を向いた顔の画像であるか否かを判別した結果が、実際に顔の画像であるか否かの答えと一致する率が、所定の閾値を超えたか否かが確かめられる(ステップST54)。ここで、弱判別器の組合せの正答率の評価に用いられるのは、現在の重みが付けられたサンプル画像群でも、重みが等しくされたサンプル画像群でもよい。所定の閾値を超えた場合は、それまでに選択した弱判別器を用いれば画像が顔であるか否かを十分に高いスコアで判別できるため、学習は終了する。所定の閾値以下である場合は、それまでに選択した弱判別器と組み合せて用いるための追加の弱判別器を選択するために、ステップST56へと進む。ステップST56では、直近のステップST53で選択された弱判別器が再び選択されないようにするため、その弱判別器が除外される。
次に、直近のステップST53で選択された弱判別器では特定方向を向いた顔であるか否かを正しく判別できなかったサンプル画像の重みが大きくされ、画像が顔であるか否かを正しく判別できたサンプル画像の重みが小さくされる(ステップST55)。このように重みを大小させる理由は、次の弱判別器の選択において、既に選択された弱判別器では正しく判別できなかった画像を重要視し、それらの画像が顔であるか否かを正しく判別できる弱判別器が選択されるようにして、弱判別器の組合せの効果を高めるためである。続いて、ステップST53へと戻り、上記したように重み付き正答率を基準にして次に有効な弱判別器が選択される。
以上のステップST53からS56を繰り返して、特定方向を向いた顔であるか否かを判別するのに適した弱判別器として、特徴量の組合せに対応する弱判別器が選択されたところで、ステップST54で確認される正答率が閾値を超えたとすると、特定方向を向いた顔であるか否かの判別に用いる弱判別器の種類と判別条件とが確定され(ステップST57)、これにより学習を終了する。なお、選択された弱判別器は、その重み付き正答率が高い順に線形結合され、1つの判別器が構成される。また、各弱判別器については、それぞれ得られたヒストグラムを基に、特徴量の組合せに応じてスコアを算出するためのスコアテーブルが生成される。なお、ヒストグラム自身をスコアテーブルとして用いることもでき、この場合、ヒストグラムの判別ポイントがそのままスコアとなる。このようにして、各顔サンプル画像群毎に学習を行うことにより、上述の19種類の判別器が生成される。
ここで、本実施形態においては、前段の弱判別器群WC−Fは、候補画像CPについての顔の向きを判別するためのものであり、後段の弱判別器群WC−Bは、弱判別器群WCが属する判別器25−iが判別可能な顔の向きに対応した顔であるか否かを判別するためのものである。このため、本実施形態においては、あらかじめ定められた数の弱判別器が選択された時点で、それまでに選択された弱判別器から前段の弱判別器群WC−Fを構成する。そして、前段の弱判別器群WC−Fを用いて、顔サンプル画像群および非顔サンプル画像群についての顔の判別を行う。ここで、前段の弱判別器群WC−Fのみでは、判別器25−iの学習の途中の段階であることから、精度良く特定方向の顔を判別できないため、特定方向の顔と見間違えるような非顔サンプル画像を特定方向の顔と判別してしまう場合がある。
図13は正面を向いた顔を判別可能な判別器における前段の弱判別器群WC−Fにより顔であると判別されたサンプル画像の例を示す図である。図13に示す4つのサンプル画像のうち、サンプル画像SP1〜SP3は正面を向いた顔であることが明らかであるが、サンプル画像SP4は明らかに顔ではないことが分かる。このため、本実施形態においては、前段の弱判別器群WC−Fによって特定方向の顔であると判別されたサンプル画像のうち、明らかに顔でないサンプル画像を、非顔サンプル画像として後段の弱判別器群WC−Bの学習には使用しないようにする。このようにして、学習に使用するサンプル画像を選択した後、前段の弱判別器群WC−Fから続けて、後段の弱判別器群WC−Bを構成する弱判別器の学習を行う。なお、後段の弱判別器群WC−Bの学習時においては、ステップST54において使用する閾値を、前段の弱判別器群WC−Fの学習に使用した閾値よりも高くすることにより、後段の弱判別器群WC−Bにより精度の高い判別を行うことが可能となる。
なお、上記の学習手法を採用する場合において、弱判別器は、特徴量の組合せを用いて顔の画像と顔でない画像とを判別する基準を提供するものであれば、上記のヒストグラムの形式のものに限られずいかなるものであってもよく、例えば2値データ、閾値または関数等であってもよい。また、同じヒストグラムの形式であっても、図12の中央に示した2つのヒストグラムの差分値の分布を示すヒストグラム等を用いてもよい。また、学習の方法としては上記手法に限定されるものではなく、ニューラルネットワーク等他のマシンラーニングの手法を用いることができる。
このように、本実施形態によれば、前段の弱判別器群WC−Fにより顔の向きを表す第1のスコアP1−iを取得し、後段の弱判別器群WC−Bにより各判別器25−iが判別可能な顔の向きに対応した顔であることを表す第2のスコアP2−iを取得する。そして、各判別器25−iのそれぞれにおける第1のスコアP1−iおよび第2のスコアP2−iの乗算値の、すべての判別器25−iの和に基づいて、顔を検出するようにしたものである。このため、判別可能な顔の向きがそれぞれ異なる複数の判別器25−iによる判別結果を統合して、顔の検出を行うことができるため、特許文献1および非特許文献1の手法のように、特定の向きのみの顔を検出するものと比較して、向きが異なる顔を柔軟に検出できることとなる。したがって、弱判別器の数を増加させることなく、顔の検出精度を向上させることができる。
また、前段の弱判別器群WC−Fを、複数の判別器25−iの少なくとも一部において特徴量を共有させることにより、複数の判別器25−iの少なくとも一部における複数の判別処理を1つの弱判別器WCにおいて行うことができることとなる。したがって、前段の弱判別器群WC−Fの数を少なくすることができ、その結果、前段の弱判別器群WC−Fにおける弱判別器WCの数を少なくすることができる。
なお、上記実施形態においては、検出対象を人物の顔としているが、人物の手等の他のオブジェクトを検出するようにしてもよい。この場合、判別器はオブジェクトを含むサンプル画像群とオブジェクトを含まないサンプル画像群とを用いて学習を行えばよい
以上、本発明の実施形態に係る顔検出システムについて説明したが、この顔検出システムのうちの本発明のオブジェクト検出装置に対応する部分における各処理をコンピュータに実行させるためのプログラムも、本発明の実施形態の1つである。また、そのようなプログラムを記録したコンピュータ読取可能な記録媒体も、本発明の実施形態の1つである。
1 顔検出システム
10 多重解像度化部
20 顔検出部
21 検出制御部
22 解像度画像選択部
23 ウィンドウ設定部
24 候補判別部
25 判別部

Claims (6)

  1. 判別対象のオブジェクトから抽出した特徴量をあらかじめ学習させた複数の弱判別器からなる、判別可能な前記オブジェクトの向きがそれぞれ異なる複数の判別器を有し、検出対象画像から抽出した特徴量を用いて、該検出対象画像から前記オブジェクトを検出する判別手段を備えたオブジェクト検出装置において、
    前記各判別器の複数の弱判別器が前段の弱判別器群および後段の弱判別器群に分割されてなり、前記前段の弱判別器群が、前記オブジェクトの向きを判別する学習がなされ、前記後段の弱判別器群が、該各後段の弱判別器が属する判別器が判別可能な前記オブジェクトの向きに対応したオブジェクトを検出する学習がなされてなり、
    前記判別手段は、前記前段の弱判別器群の出力である第1のスコア、および前記後段の弱判別器の出力である第2のスコアを取得し、前記複数の判別器のそれぞれにおける前記第1のスコアおよび前記第2のスコアの乗算値の、すべての前記判別器についての和に基づいて、前記オブジェクトを検出する手段であることを特徴とするオブジェクト検出装置。
  2. 前記前段の弱判別器群が、前記複数の判別器における少なくとも一部において前記特徴量を共有してなることを特徴とする請求項1記載のオブジェクト検出装置。
  3. 前記前段の弱判別器群と前記後段の弱判別器群とが連続して接続されてなることを特徴とする請求項1または2記載のオブジェクト検出装置。
  4. 前記判別器が、前記オブジェクトが所定の方向を向いた基準サンプル画像、並びに該基準サンプル画像の前記判別対象を該基準サンプル画像の平面において回転させた、回転角度が異なる複数の面内回転サンプル画像、および前記基準サンプル画像内の前記判別対象の向きを回転させた、回転角度が異なる複数の面外回転サンプル画像の少なくとも一方を用いて学習されたものであることを特徴とする請求項1から3のいずれか1項記載のオブジェクト検出装置。
  5. 判別対象のオブジェクトから抽出した特徴量をあらかじめ学習させた複数の弱判別器からなる、判別可能な前記オブジェクトの向きがそれぞれ異なる複数の判別器を有し、検出対象画像から抽出した特徴量を用いて、該検出対象画像から前記オブジェクトを検出するオブジェクト検出方法において、
    前記各判別器の複数の弱判別器が前段の弱判別器群および後段の弱判別器群に分割されてなり、前記前段の弱判別器群が、前記オブジェクトの向きを判別する学習がなされ、前記後段の弱判別器群が、該各後段の弱判別器が属する判別器が判別可能な前記オブジェクトの向きに対応したオブジェクトを検出する学習がなされてなり、
    前記前段の弱判別器群の出力である第1のスコア、および前記後段の弱判別器の出力である第2のスコアを取得し、
    前記複数の判別器のそれぞれにおける前記第1のスコアおよび前記第2のスコアの乗算値の、すべての前記判別器についての和に基づいて、前記オブジェクトを検出することを特徴とするオブジェクト検出方法。
  6. 判別対象のオブジェクトから抽出した特徴量をあらかじめ学習させた複数の弱判別器からなる、判別可能な前記オブジェクトの向きがそれぞれ異なる複数の判別器を有し、検出対象画像から抽出した特徴量を用いて、該検出対象画像から前記オブジェクトを検出するオブジェクト検出方法をコンピュータに実行させるためのプログラムにおいて、
    前記各判別器の複数の弱判別器が前段の弱判別器群および後段の弱判別器群に分割されてなり、前記前段の弱判別器群が、前記オブジェクトの向きを判別する学習がなされ、前記後段の弱判別器群が、該各後段の弱判別器が属する判別器が判別可能な前記オブジェクトの向きに対応したオブジェクトを検出する学習がなされてなり、
    前記プログラムは、前記前段の弱判別器群の出力である第1のスコア、および前記後段の弱判別器の出力である第2のスコアを取得する手順と、
    前記複数の判別器のそれぞれにおける前記第1のスコアおよび前記第2のスコアの乗算値の、すべての前記判別器についての和に基づいて、前記オブジェクトを検出する手順とをコンピュータに実行させることを特徴とするプログラム。
JP2009287063A 2009-12-18 2009-12-18 オブジェクト検出装置および方法並びにプログラム Ceased JP2011128916A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009287063A JP2011128916A (ja) 2009-12-18 2009-12-18 オブジェクト検出装置および方法並びにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009287063A JP2011128916A (ja) 2009-12-18 2009-12-18 オブジェクト検出装置および方法並びにプログラム

Publications (1)

Publication Number Publication Date
JP2011128916A true JP2011128916A (ja) 2011-06-30

Family

ID=44291447

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009287063A Ceased JP2011128916A (ja) 2009-12-18 2009-12-18 オブジェクト検出装置および方法並びにプログラム

Country Status (1)

Country Link
JP (1) JP2011128916A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013132695A1 (ja) * 2012-03-09 2013-09-12 日本電気株式会社 情報処理装置、情報処理方法および記録媒体
JP2013196683A (ja) * 2012-03-21 2013-09-30 Nec (China) Co Ltd 姿勢分類器トレーニング方法、対象物分類器トレーニング方法、対象物検出方法、姿勢分類器トレーニング装置、対象物分類器トレーニング装置、及び対象物検出装置
JP2014191471A (ja) * 2013-03-26 2014-10-06 Mega Chips Corp 物体検出装置
JP2016001492A (ja) * 2011-09-27 2016-01-07 インテル・コーポレーション Adaboost学習アルゴリズムを使用して顔特徴点の位置を検出するための方法、装置、およびコンピュータ可読記録媒体
US10223583B2 (en) 2013-03-26 2019-03-05 Megachips Corporation Object detection apparatus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006244385A (ja) * 2005-03-07 2006-09-14 Fuji Photo Film Co Ltd 顔判別装置およびプログラム並びに顔判別装置の学習方法
JP2007226512A (ja) * 2006-02-23 2007-09-06 Fujifilm Corp 特定向き顔判定方法および装置並びにプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006244385A (ja) * 2005-03-07 2006-09-14 Fuji Photo Film Co Ltd 顔判別装置およびプログラム並びに顔判別装置の学習方法
JP2007226512A (ja) * 2006-02-23 2007-09-06 Fujifilm Corp 特定向き顔判定方法および装置並びにプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016001492A (ja) * 2011-09-27 2016-01-07 インテル・コーポレーション Adaboost学習アルゴリズムを使用して顔特徴点の位置を検出するための方法、装置、およびコンピュータ可読記録媒体
WO2013132695A1 (ja) * 2012-03-09 2013-09-12 日本電気株式会社 情報処理装置、情報処理方法および記録媒体
JPWO2013132695A1 (ja) * 2012-03-09 2015-07-30 日本電気株式会社 情報処理装置、情報処理方法および記録媒体
JP2013196683A (ja) * 2012-03-21 2013-09-30 Nec (China) Co Ltd 姿勢分類器トレーニング方法、対象物分類器トレーニング方法、対象物検出方法、姿勢分類器トレーニング装置、対象物分類器トレーニング装置、及び対象物検出装置
JP2014191471A (ja) * 2013-03-26 2014-10-06 Mega Chips Corp 物体検出装置
US10223583B2 (en) 2013-03-26 2019-03-05 Megachips Corporation Object detection apparatus

Similar Documents

Publication Publication Date Title
JP4744918B2 (ja) 顔検出方法および装置並びにプログラム
JP4628882B2 (ja) 判別器の学習方法、顔判別方法および装置並びにプログラム
JP4767595B2 (ja) 対象物検出装置及びその学習装置
Marée et al. Random subwindows for robust image classification
JP6330385B2 (ja) 画像処理装置、画像処理方法およびプログラム
CN101271515B (zh) 能识别多角度目标的图像检测装置
JP4712563B2 (ja) 顔検出方法および装置並びにプログラム
JP4657934B2 (ja) 顔検出方法および装置並びにプログラム
JP2007047965A (ja) デジタル画像の対象物検出方法および装置並びにプログラム
JP2012243180A (ja) 学習装置および方法、並びにプログラム
JP2007213182A (ja) 対象物状態認識方法および装置並びにプログラム
JP2007065844A (ja) 顔検出方法および装置並びにプログラム
CN112232199A (zh) 基于深度学习的佩戴口罩检测方法
JP2015187759A (ja) 画像検索装置、画像検索方法
WO2011092865A1 (ja) 物体検出装置及び物体検出方法
CN110008899B (zh) 一种可见光遥感图像候选目标提取与分类方法
JP4757598B2 (ja) 顔検出方法および装置並びにプログラム
JP2011128916A (ja) オブジェクト検出装置および方法並びにプログラム
WO2012046426A1 (ja) 物体検出装置、物体検出方法および物体検出プログラム
JP5317934B2 (ja) オブジェクト検出装置および方法並びにプログラム
JP4749884B2 (ja) 顔判別装置の学習方法、顔判別方法および装置並びにプログラム
JP2011170890A (ja) 顔検出方法および装置並びにプログラム
Javed et al. Human movement recognition using euclidean distance: a tricky approach
CN108985216B (zh) 一种基于多元logistic回归特征融合的行人头部检测方法
Mccullagh Face detection by using haar cascade classifier

Legal Events

Date Code Title Description
RD15 Notification of revocation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7435

Effective date: 20110520

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130215

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130219

A045 Written measure of dismissal of application

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20130625