JP6147198B2 - ロボット - Google Patents

ロボット Download PDF

Info

Publication number
JP6147198B2
JP6147198B2 JP2014003718A JP2014003718A JP6147198B2 JP 6147198 B2 JP6147198 B2 JP 6147198B2 JP 2014003718 A JP2014003718 A JP 2014003718A JP 2014003718 A JP2014003718 A JP 2014003718A JP 6147198 B2 JP6147198 B2 JP 6147198B2
Authority
JP
Japan
Prior art keywords
face
image
unit
detection unit
skin color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014003718A
Other languages
English (en)
Other versions
JP2015132955A (ja
Inventor
恒樹 二宮
恒樹 二宮
匡将 榎本
匡将 榎本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Soft Inc
Original Assignee
Fuji Soft Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Soft Inc filed Critical Fuji Soft Inc
Priority to JP2014003718A priority Critical patent/JP6147198B2/ja
Publication of JP2015132955A publication Critical patent/JP2015132955A/ja
Application granted granted Critical
Publication of JP6147198B2 publication Critical patent/JP6147198B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、ロボットに関する。
ユーザと対話するコミュニケーションロボットにおいては、ユーザの発話などの刺激に対して的確かつ高速に応答することが必要である。ユーザの発話を認識する場合、音声認識の結果だけでなく、周囲の状況などを総合的に判断することにより、発話の認識の精度を高める技術が知られている。カメラにより撮影された画像からユーザの顔を検出し、ユーザの顔がコミュニケーションロボットの顔に向いているか否かを判定し、その判定結果を発話の認識に用いる技術が知られている。また、コミュニケーションロボットにおいて、顔の画像による人物の識別を行うためには、顔検出処理の精度を高める必要がある。
複数の顔検出機能を用いる技術が知られている。特許文献1は、種別又は認識レベルが異なる複数の認識器による人物の顔の認識結果のうち所定の認識器の認識結果に基づいて顔のトラッキングを行い、その認識結果が得られなくなった場合に、他の認識器の認識結果に基づいてトラッキングを継続するロボット装置を開示している。これにより、環境変化があった場合でもロバストなトラッキングを行うことができる。特許文献2は、画像内の顔の存在を検出する第1の顔検出器と、それより検出閾値が低い第2の顔検出器とを備え、予測された顔位置から閾値内の距離に、第1の顔検出器により顔位置が検出されれば、第1の顔検出器により検出された顔位置を用いて次の画像における顔位置を予測し、予測された顔位置から閾値内の距離に、第1の顔検出器により顔位置が検出されなければ、第2の顔検出器により検出された顔位置を用いて次の画像における顔位置を予測する顔検出装置を開示している。これにより、顔を検出する可能性が高まる。
特許4239635号公報 特表2006−508461号公報
顔検出処理の精度を高めると、顔検出処理の処理時間が増大し、ユーザへの応答が遅くなり、自然な対話にならない。一方、応答の高速化のために顔検出処理の精度を抑えると、環境の変化などにより顔を検出することができなくなる場合がある。
本発明は、上記の問題に鑑みてなされたもので、その目的は、ユーザとの対話において、高速な応答と人物の高精度な識別とを両立させる技術を提供することにある。
本発明の一つの観点に係るロボットは、連続して撮影される撮影画像から顔を表す第1顔画像を検出する第1顔検出部と、第1顔画像が検出された場合、第1顔検出部による検出より長い時間を掛けて撮影画像から顔を表す第2顔画像を検出する第2顔検出部と、第1顔画像に基づいて、連続する撮影画像内の顔の位置を追跡する顔追跡部と、予め登録された少なくとも一人の顔画像に基づいて、第2顔画像に表されている人物を識別する顔識別部と、を備える。
ロボットは、連続して撮影画像を撮影する画像入力部と、位置が撮影画像の中心に向かう方向へ、画像入力部を移動させる駆動部と、を更に備えても良い。
ロボットは、連続して撮影された複数の撮影画像内に動体が存在することを検出する動体検出部を更に備え、第1顔画像が検出された場合または動体の存在が検出された場合、第2顔検出部は、撮影画像から第2顔画像を検出しても良い。
実施例のコミュニケーションロボットの構成を示すブロック図。 顔判定部442の動作を示す模式図。 顔識別部530の構成を示すブロック図。 顔識別部530の動作を示すフローチャート。 顔追跡部520の動作を示す模式図。 顔検出処理における第1顔検出処理を示すタイムチャート。 顔探索期間の動作を示すタイムチャート。 追跡期間の動作を示すタイムチャート。 肌色条件変更処理を示すタイムチャート。 肌色条件変更処理を示す模式図。
本実施形態のコミュニケーションロボットは、撮影画像から顔を検出する第1顔検出処理に基づいて顔の追跡や発話の認識を行うことにより、高速な応答を実現し、第1顔検出処理より長い時間を掛けて撮影画像から顔を検出する第2顔検出処理に基づいて人物の識別を行うことにより、人物の高精度な識別を実現する。
本発明のロボット、対話方法、およびコンピュータプログラムは、ユーザとの対話を行うコミュニケーションロボットや、ユーザとの対話やユーザの案内等を行うコンピュータシステムに適用されても良い。
図1は、実施例のコミュニケーションロボットの構成を示すブロック図である。
以下の説明において本実施例のコミュニケーションロボットを単にロボットと呼ぶことがある。このロボットは、音声入力部110と、画像入力部130と、音声出力部140と、表示部150と、動作機構部160と、制御部400とを含む。制御部400は、例えばコンピュータにより実現される。このコンピュータは、プログラム及びデータを格納するメモリと、そのプログラムに従って制御部400の処理を実行するCPU(Central Processing Unit)などのマイクロプロセッサとを含む。このプログラムは、コンピュータ読み取り可能な媒体に格納され、コンピュータによりその媒体から読み出されて実行されても良い。
本実施例におけるロボットは、人型である。画像入力部130はロボットの目として頭部の前部(顔)に設けられている。動作機構部160は、頭部、腕部、腰部、脚部などのアクチュエータを含む。例えば、動作機構部160は、制御部400からの指示に従って、ロボットの首を回転させることにより頭部の方向を変えることができ、腕を回転させることにより腕の方向を変えることができる。音声入力部110は、例えばマイクであり、マイクへ届いた音声を連続して取得し、音声信号に変換する。画像入力部130は、例えばカメラであり、ロボットの頭部の前方の画像を連続して撮影し、撮影画像とする。フレームバッファ421、422、423のそれぞれは、画像入力部130から出力される撮影画像を格納する。
制御部400は、音声認識部410と、フレームバッファ421、422、423と、第1顔検出部430と、第2顔検出部440と、動体検出部450と、発話認識部510と、顔追跡部520と、顔識別部530と、肌色情報記憶部540と、応答制御部550とを含む。
第1顔検出部430は、第1顔検出処理により、フレームバッファ421に格納されている撮影画像から第1顔画像を検出する。第1顔検出部430は更に、撮影画像における第1顔画像の位置である第1顔画像位置と、色空間における第1顔画像の肌色の範囲を示す第1肌色情報と、正面顔を検出したことを示す第1正面顔検出情報を出力する。第2顔検出部440は、第1正面顔検出情報に応じて、第2顔検出処理により、フレームバッファ422に格納されている撮影画像から第2顔画像を検出する。第2顔検出部440は更に、第2顔画像が真正面顔を表すと判定されたことを示す第2正面顔検出情報と、色空間における第2顔画像の肌色の範囲を示す第2肌色情報とを出力する。第2顔検出処理は、第1顔検出処理に比べて、処理時間が長いが検出精度が高い。より精度が高い第2顔検出処理により判定される正面顔は、第1顔検出処理により判定される正面顔より真正面に近いため真正面顔として区別する。動体検出部450は、フレームバッファ423に格納された撮影画像で、連続して撮影された二つの撮影画像の差分を算出し、差分の大きさに基づいて、撮影画像が動体を表すか否かを判定する。動体検出部450は、撮影画像が動体を表すと判定された場合、第2顔検出部440に動作の指示を出力する。
音声認識部410は、音声入力部110から出力される音声信号を解析し、単語を認識する。例えば、音声認識部410は、この解析に、音響モデルデータベースと文法データベース辞書データベースとを用いる。音響モデルデータベースは、テキスト(読み)とテキストを発音したときの波形とを対応づけて記憶したデータベースであり、どのような波形の音がどのような単語として認識されるかを定義している。文法データベースは、単語の並べ方(文法)などを記憶したデータベースである。辞書データベースには、所定のキーワードを含む種々の単語がその読みと共に登録されている。また、音声認識部410は、予め音声信号を学習することにより登録された少なくとも一人の人物の中から、音声入力部110から出力される音声信号の話者のIDを識別しても良い。
発話認識部510は、第1顔検出部430による第1正面顔検出情報と、音声認識結果とに基づいて、音声認識部410による音声認識結果がロボットに向けられたユーザからの音声であるか否かを判定し、音声認識結果がユーザからロボットへの発話であると判定された場合、発話の内容を発話情報として応答制御部550へ出力する。また、発話認識部510は、判定に、複数の音声入力部110から得られる音源方位情報、キーワード−動詞データベース、認識結果履歴データベースなどを用いても良い。ここで、発話認識部510は、第1顔検出部430により正面顔が検出され第1正面顔検出情報を取得した場合、音声認識結果がユーザからロボットへの発話である確率を高めて、発話の判定を行う。これにより、発話認識部510は、ユーザの顔がロボットの顔を向いている場合に、ユーザからロボットへの発話が行われたと認識することができ、発話の判定の信頼性を高めることができる。
顔追跡部520は、第2顔画像が検出された後の撮影画像から、第1顔画像位置から所定の距離内における第1肌色情報の範囲内の色の矩形領域を追跡領域として検出し、追跡領域の位置を追跡位置として検出する顔追跡処理を行う。
顔識別部530は、予め顔画像を学習することにより登録された少なくとも一人の人物の中から、第2顔検出部440により検出された第2顔画像が表す人物のID(識別子)を識別する顔識別処理を行う。肌色情報記憶部540は、顔識別部530により識別されたIDと、第2顔検出部440により検出された第2肌色情報とを関連付けて記憶する。
応答制御部550は、発話認識部510により認識された発話情報と、顔追跡部520により検出された追跡位置と、顔識別部530により識別されたIDとに基づいて、音声出力部140、表示部150、および動作機構部160を制御することにより、ユーザへ応答する。音声出力部140は、応答制御部550からの指示に従って、ユーザへの応答の音声を出力する。音声入力部110および音声出力部140により、ロボットはユーザと対話することができる。表示部150は、例えばロボットの頭部の前部に設けられ、応答制御部550からの指示に従って、ユーザへの応答の画像や文字などを表示する。動作機構部160は、応答制御部550からの指示に従って、モータで首を動かすことにより、頭部の前部をユーザの顔に向ける。これにより、ロボットは、ユーザの顔を見てユーザと対話する。
以下、各部の詳細について説明する。
第1顔検出部430は、第1肌色抽出部431と、エッジ抽出部432と、正面顔判定部433とを含む。
第1肌色抽出部431は、色空間における色の範囲で表される肌色の条件を第1肌色条件として記憶する。本実施例における色空間は、HSV色空間であるが、RGB等、他の色空間であっても良い。第1肌色条件は、HSV色空間における、色相(Hue)、彩度(Saturation)、明度(Value)のそれぞれの成分の値の範囲を表し、各成分の下限値および上限値を含む。動作開始時において、第1肌色抽出部431は、予め設定された第1肌色条件の初期値を用い、その後、後述する肌色条件変更処理により第1肌色条件を変更する。第1肌色抽出部431は、撮影画像から、第1肌色条件に示されている範囲内の色を有する画素を含む矩形の領域を肌色領域として検出する。その後、第1肌色抽出部431は、検出された肌色領域の中から、アスペクト比が予め定められたアスペクト比範囲内である肌色領域を、顔を含む可能性が高い矩形領域である顔候補領域として選択する。アスペクト比範囲は、例えば、横:縦が1:1(正方形)から1:2(長方形)までの範囲である。例えば、人物の胴体から検出される肌色領域は横長になることが多く、背景の柱から検出される肌色領域はアスペクト比範囲よりも縦長になることが多いため、顔である可能性が低い肌色領域を捨て、顔である可能性が高い肌色領域を残すことができる。
エッジ抽出部432は、顔候補領域内のエッジを表すエッジ画像を抽出する。本実施例におけるエッジは、縦方向のエッジである。これにより、主に、眉、目、鼻の下面、口を表すエッジが検出される。
正面顔判定部433は、エッジ画像の特徴に基づいて、顔候補領域が正面顔を表すか否かを判定する。例えば、正面顔判定部433は、顔候補領域から検出されたエッジ画像内のエッジの左右の対称性に基づいて、顔候補領域が正面顔を表すと判定する。例えば、正面顔判定部433は、エッジ画像内のエッジの分布における左右の偏差の大きさが所定の偏差閾値より小さい場合、顔候補領域が正面顔を表すと判定する。顔候補領域が正面顔を表すと判定された場合、正面顔判定部433は、正面顔を検出したことを示す第1正面顔検出情報を発話認識部510および第2顔検出部440へ出力する。
正面顔判定部433は更に、第1顔画像から第1肌色情報を抽出し、撮影画像における第1顔画像の位置である第1顔画像位置と第1肌色情報とを顔追跡部520へ出力する。例えば、正面顔判定部433は、第1顔画像の中心を検出し、第1顔画像全体と中心の位置に対して予め設定された比率の位置における基準領域を検出する。例えば、基準領域は、額、左頬、右頬である。正面顔判定部433は、基準領域内の色の範囲を第1肌色情報として検出する。例えば、正面顔判定部433は、三つの基準領域内の色の各成分の最小値および最大値を第1肌色情報として検出する。
第1顔検出部430は、撮影画像から肌色領域に検出し、肌色領域の中から顔候補領域を選択し、エッジ画像を用いて第1顔画像を検出するため、CPU負荷が低く、処理時間が短い。つまり、処理コストが低い。したがって、撮影画像内に顔が出現してから第1顔検出部430が顔を検出するまでの時間は短い。一方で、撮影環境や人物差などに対するロバスト性は低い。
第2顔検出部440は、第2肌色抽出部441と、顔判定部442と、肌色情報抽出部443とを含む。
第2肌色抽出部441は、第1肌色抽出部431の同様の動作を行う。但し、第2肌色抽出部441は予め設定された第2肌色条件を記憶し、第2肌色条件の範囲内の色を含む矩形領域を顔判定領域として検出する。第2肌色条件は固定であり、第1肌色抽出部431の初期肌色条件より広く設定されている。これにより、第2肌色抽出部441は、第1肌色抽出部431に比べて肌色の領域を検出する確率を高めることができる。なお、第2肌色抽出部441は、第1肌色抽出部431より精度の高い肌色抽出の処理を実装しても良い。
図2は、顔判定部442の動作を示す模式図である。
この図のS601に示されているように、第2肌色抽出部441により撮影画像661から顔判定領域662が検出された場合、顔判定部442は、Haar−Like特徴を用いてその顔判定領域662が顔を表すか否かを判定する。なお、顔判定部442は、テンプレートマッチングなど他の顔判定方法を用いても良い。一方、この図のS602に示されているように、第2肌色抽出部441により撮影画像から顔判定領域が検出されなかった場合、顔判定部442は、撮影画像内に矩形の顔判定領域を設定し、Haar−Like特徴を用いてその顔判定領域が顔を表すか否かを判定し、撮影画像の全体に亘って顔判定領域を走査し、判定を繰り返す。さらに、顔判定部442は、顔判定領域のサイズを変更し、撮影画像の全体に亘って顔判定領域を走査し、判定を繰り返す。したがって、CPU負荷が高く、処理時間が長い。つまり、処理コストが高い。そのため、撮影画像内に顔が出現してから第2顔検出部440が顔を検出するまでの時間は長い。一方で、第2顔検出部440は、第2肌色抽出部441により顔判定領域が検出されなかったとしても、撮影画像全体に亘って顔判定領域を判定することにより顔を検出する確度は高い。すなわち、撮影環境や人物差などに対するロバスト性は高い。
顔判定領域が顔を表すと判定された場合、顔判定部442は、その領域を第2顔画像として顔識別部530へ出力する。さらに顔判定部442は、第2顔画像が真正面顔を表すか否かを判定する。第2顔画像が真正面顔を表すと判定された場合、顔判定部442は、第2顔画像が真正面顔を表すと判定されたことを示す第2正面顔検出情報を顔識別部530へ出力し、第2顔画像を肌色情報抽出部443へ出力する。
肌色情報抽出部443は、真正面顔を表すと判定された第2顔画像から第2肌色情報を抽出する。例えば、肌色情報抽出部443は、第2顔画像の中心を検出し、その中心に対して予め設定された少なくとも一つの相対位置の基準領域を検出する。例えば、基準領域は、額、左頬、右頬である。肌色情報抽出部443は、基準領域内の色の範囲を第2肌色情報として検出する。例えば、肌色情報抽出部443は、三つの基準領域内の色の各成分の最小値および最大値を第2肌色情報として検出する。肌色情報抽出部443は、検出された第2肌色情報を第1顔検出部430と肌色情報記憶部540へ出力し、顔識別部530により識別された人物のIDに関連付けて肌色情報記憶部540に保存する。
以下、顔識別部530の詳細について説明する。
図3は、顔識別部530の構成を示すブロック図である。
顔識別部530は、第1尤度算出部230と、第2尤度算出部310と、蓄積型算出部240と、識別部270とを含む。顔識別部530は、第2顔画像に基づいて人物を識別する顔識別処理に先立って、少なくとも一人のIDを登録するとともに対象顔画像を学習する登録処理を行う。
第1尤度算出部230は、第2顔検出部440により検出された第2顔画像が第1対象顔画像であることの確からしさ(スコア)である第1尤度を算出する。第1対象顔画像は、対象者の真正面顔以外の顔画像を含む複数の顔画像である。本実施例の第1尤度算出部230は、ニューラルネットワークを有し、登録処理において第1対象顔画像を教師信号としてニューラルネットワークの学習を行い、顔識別処理においてそのニューラルネットワークにより顔画像から第1尤度を算出する。登録処理により複数の対象者が登録される場合、第1尤度算出部230は、登録処理において複数の対象者の夫々の第1対象顔画像を教師信号としてニューラルネットワークの学習を行い、顔識別処理においてそのニューラルネットワークにより一つの顔画像から複数の対象者の夫々の第1尤度を算出する。
登録処理において、第1尤度算出部230は、ニューラルネットワークの教師信号として、対象者の複数の第1対象顔画像を取得する。例えば、応答制御部550は、ユーザから対象者の登録処理の指示を受けると、ロボットの手を見ることを指示するメッセージを音声によりユーザへ出力し、ロボットの手のアクチュエータを駆動することによりロボットの手を画像入力部130の周りの様々な方向へ動かしながら、画像入力部130により連続して撮影する。第2顔検出部440は、撮影により得られた複数の撮影画像から顔画像を検出し、第1対象顔画像として第1尤度算出部230へ出力する。これにより、第1尤度算出部230は、様々な方向から撮影した対象者の顔画像を用いてニューラルネットワークの学習を行うことができる。この登録処理により、第1尤度算出部230は、第1対象顔画像に基づく情報として、第1対象顔画像により学習されたニューラルネットワークを記憶する。
なお、第1尤度算出部230は、登録処理において、検出された第1対象顔画像を格納し、顔識別処理において、第2顔検出部440により検出された第2顔画像と、第1対象顔画像との類似度を算出しても良い。また、第1尤度算出部230は、登録処理において、第1対象顔画像から検出された特徴量を格納し、顔識別処理において、第2顔検出部440により検出された第2顔画像から特徴量を検出し、検出された特徴量と、格納された特徴量との類似度を算出しても良い。
蓄積型算出部240は、対象者毎に、所定の蓄積数までの第1尤度の平均を平均尤度として算出する。蓄積数は、例えば7である。また、蓄積型算出部240は、対象者毎に、蓄積数までの第1尤度を記憶しても良い。なお、蓄積型算出部240は、複数の第1尤度の加重平均を平均尤度として算出しても良い。重み付けは、現在からの時間差に応じて減少しても良い。
第2尤度算出部310は、登録処理において、対象者の真正面顔の顔画像である第2対象顔画像を取得し、顔識別処理において、第2顔検出部440により検出された顔画像が第2対象顔画像であることの確からしさ(スコア)である第2尤度を算出する。第1対象顔画像が真正面顔以外の顔画像を含むのに対し、第2対象顔画像は、真正面顔だけの顔画像である。本実施例の第2尤度算出部310は、ニューラルネットワークを有し、登録処理において第2対象顔画像を教師信号としてニューラルネットワークの学習を行い、顔識別処理においてそのニューラルネットワークにより第2顔検出部440により検出された第2顔画像から対象者の第2尤度を算出する。登録処理により複数の対象者が登録された場合、第2尤度算出部310は、登録処理において複数の対象者の夫々の第2対象顔画像を教師信号としてニューラルネットワークの学習を行い、顔識別処理においてそのニューラルネットワークにより一つの顔画像から複数の対象者の夫々の第2尤度を算出する。
登録処理において、第2尤度算出部310は、ニューラルネットワークの教師信号として、対象者の複数の第2対象顔画像を取得する。例えば、本実施例の顔認識装置が人型ロボットに適用される場合、応答制御部550は、ユーザから対象者の登録処理の指示を受けると、画像入力部130を真正面から見ることを指示するメッセージを音声によりユーザへ出力し、画像入力部130により連続して撮影する。第2顔検出部440は、撮影により得られた複数の撮影画像から第2顔画像を検出し、検出された第2顔画像が真正面顔を表しているか否かを判定し、第2顔画像が真正面顔を表している場合に第2正面顔検出情報を出力する。これにより、第2尤度算出部310は、対象者の真正面顔だけの顔画像を用いてニューラルネットワークの学習を行うことができる。この登録処理により、第2尤度算出部310は、第2対象顔画像に基づく情報として、第2対象顔画像により学習されたニューラルネットワークを記憶する。
なお、第2尤度算出部310は、登録処理において、検出された第2対象顔画像を格納し、顔識別処理において、真正面顔を表していると判定された第2顔画像と、第2対象顔画像との類似度を算出しても良い。また、第2尤度算出部310は、登録処理において、第2対象顔画像から検出された特徴量を格納し、顔識別処理において、真正面顔を表していると判定された顔画像から特徴量を検出し、検出された特徴量と、格納された特徴量との類似度を算出しても良い。
識別部270は、第2尤度算出部310により算出された第2尤度が所定の第2尤度閾値を超えたか否かを判定する。更に識別部270は、蓄積型算出部240により算出された平均尤度が所定の平均尤度閾値を超えたか否かを判定する。更に識別部270は、第2尤度の判定結果と、平均尤度の判定結果とに基づいて、顔画像が或る対象者を表しているか否かを判定し、顔画像が或る対象者を表していると判定された場合、その対象者のIDを認識結果として応答制御部550へ出力する。
第1尤度算出部230は、様々な条件(顔方向、照明条件)の顔画像を学習することにより、真正面顔以外を含む様々な条件の顔画像を認識することができる。しかし、第1尤度算出部230は、対象者の真正面顔の顔画像から算出される第1尤度が、対象者の真正面以外の顔画像から算出する第1尤度に比べて常に高くなるわけではないため、1枚の真正面顔の顔画像から算出された第1尤度だけで対象者を特定することは信頼性が不十分な場合もある。
一方、第2尤度算出部230は、真正面顔だけを表す第2対象顔画像だけを学習することにより、対象者の真正面顔の顔画像が撮影された場合には高い尤度を出力するため、1枚の真正面顔の顔画像から算出された第2尤度だけで対象者を特定することができる。
図4は、顔識別部530の動作を示すフローチャートである。
第2尤度算出部310は、第2顔検出部440により検出された第2顔画像および第2正面顔検出情報を取得する(S110)。その後、第2尤度算出部310は、第2正面顔検出情報に基づいて、検出された第2顔画像が真正面顔を表しているか否かを判定する(S310)。
検出された第2顔画像が真正面顔を表していないと判定された場合(S310:NO)、識別部270は、処理をS410へ移行させる。一方、検出された第2顔画像が真正面顔を表していると判定された場合(S310:YES)、第2尤度算出部310は、対象者毎の第2尤度を算出する(S320)。識別部270は、或る対象者の第2尤度が予め設定された第2尤度閾値以上であるか否かを判定する(S330)。
或る対象者の第2尤度が第2尤度閾値以上でないと判定された場合(S330:NO)、識別部270は、処理をS410へ移行させる。一方、或る対象者の第2尤度が第2尤度閾値以上であると判定された場合(S330:YES)、識別部270は、その第2尤度に対応する対象者を特定し、その対象者のIDを認識結果として応答制御部550および肌色情報記憶部540へ出力する(S340)。
その後、第1尤度算出部230は、対象者毎の第1尤度を算出する(S410)。その後、蓄積型算出部240は、算出された第1尤度を記憶し、記憶されている第1尤度から平均尤度を算出する(S510)。識別部270は、或る対象者の平均尤度が予め設定された平均尤度閾値以上であるか否かを判定する(S520)。平均尤度が平均尤度閾値以上でないと判定された場合(S520:NO)、識別部270は、処理をS540へ移行させる。一方、平均尤度が平均尤度閾値以上であると判定された場合(S520:YES)、識別部270は、その平均尤度に対応する対象者を特定し、その対象者のIDを認識結果として応答制御部550および肌色情報記憶部540へ出力する(S530)。その後、識別部270は、顔識別処理の終了の指示を受けたか否かを判定する(S540)。顔識別処理の終了の指示を受けたと判定されなかった場合(S540:NO)、識別部270は、処理をS110へ移行させる。これにより、次のフレームの画像の処理が行われる。顔識別処理の終了の指示を受けたと判定された場合(S540:YES)、識別部270は、この処理を終了する。以上が顔識別処理である。顔識別処理の終了の指示は、例えば、顔追跡処理による追跡位置の検出が失敗したことを示す情報である。
顔識別部530によれば、第2顔画像が真正面顔を表していると判定され、且つ第2尤度が第2尤度閾値を超えたと判定された時点で、その第2尤度に対応する対象者のIDを認識結果として出力することにより、平均尤度の判定に比べて、認識結果を出力するまでの時間を短縮することができる。また、第2尤度算出部310が、真正面顔の顔画像だけを学習することにより、高い第2尤度を得ることができるため、第2尤度による判定の信頼性を向上させることができ、一つの真正面顔の第2顔画像を検出した時点で対象者を特定することが可能になる。
第2尤度算出部310は、第2顔検出部440により第2顔画像が検出される度に、その第2顔画像から第2尤度を算出しても良い。この場合、識別部270は、或る第2顔画像が真正面顔を表していると判定され、且つその第2顔画像から算出された第2尤度が第2尤度閾値以上である場合に、その第2尤度に対応する対象者のIDを認識結果として出力する。
なお、第2尤度算出部310を省いても良い。第2顔画像が真正面顔を表していると判定された場合、且つ第1尤度算出部230からの第1尤度が予め設定された第1尤度閾値以上である場合、識別部270は、第1尤度に対応する対象者を特定する。一方、第2顔画像が真正面顔を表していないと判定された場合、且つ蓄積型算出部240からの平均尤度が平均尤度閾値以上である場合、識別部270は、平均尤度に対応する対象者を特定する。
図5は、顔追跡部520の動作を示す模式図である。
顔追跡部520は、第2顔検出部440により撮影画像から第2顔画像が検出された後、顔追跡部520が顔の追跡に失敗するまで、顔追跡処理を行う。S611は、撮影画像の右部に第2顔画像が検出された状態を示す。顔追跡部520は、第1顔画像位置から、連続する撮影画像内で第1肌色情報の色を追跡し、その位置を追跡位置として検出し、追跡位置を応答制御部550へ出力する。応答制御部550は、追跡位置に基づいて、追跡位置が撮影画像の中心になるように動作機構部160へ指示することにより、ロボットの頭部を動かす。S612は、動作機構部160が頭部を右へ回転させることにより、第2顔画像が撮影画像の中心になった状態を示す。S613は、第2顔画像の人物が移動することにより、第2顔画像が撮影画像の左部へ移動した場合を示す。S614は、更に動作機構部160が頭部を左へ回転させることにより、第2顔画像が撮影画像の中心になった状態を示す。これにより、顔追跡部520により追跡位置が検出されている間、第2顔画像に表されている人物がすり替わっていないことを確認することができる。また、対話中のユーザが移動しても、ロボットの顔をユーザに向けることができるとともに、ユーザの顔を撮影画像の中心に捉えることができる。
以下、ロボットによる顔検出処理の動作について説明する。
図6は、顔検出処理における第1顔検出処理を示すタイムチャートである。
第1顔検出部430は、予め定められた時間間隔である第1顔検出周期毎に、第1顔検出処理を行う。第1顔検出部430は、最初の状態を顔探索期間とする。第2顔検出部440は、撮影画像から第2顔画像を検出すると、状態を顔探索期間から追跡期間へ移行させる。顔追跡部520は、追跡位置の検出に失敗すると、状態を追跡期間から顔探索期間へ移行させる。
図7は、顔探索期間の動作を示すタイムチャートである。
この図は、第1顔検出部430と、第2顔検出部440と、顔識別部530と、顔追跡部520との動作を示す。第1顔検出部430は、前述したように、第1顔検出周期毎に、第1顔検出処理を行う。第1顔検出部430が撮影画像から第1顔画像を検出した場合、または動体検出部450が撮影画像から動体を検出した場合、第2顔検出部440は第2顔検出処理を行う。このように、撮影画像内に顔が存在する確率が高い場合に第2顔検出処理を行うことにより、処理時間の長い第2顔検出処理を無駄に実行することを抑えることができる。これにより、撮影画像に顔が出現した場合にロボットは高速に応答することができる。また、動体検出部450による動体の検出を契機に第2顔検出処理を行うことにより、第1顔検出処理により第1顔画像を検出できない場合でも、第2顔検出処理を行うことができる。
高い頻度で定期的に実行されている第1顔検出処理による第1顔画像の検出をトリガーにして第2顔検出処理を実行することにより、撮影画像内に顔が出現してから第2顔画像を検出するまでの処理時間を短くすることができる。もし、顔を検出していない状態で第2顔検出処理を繰り返すと、前述のように第2顔検出処理の処理時間が長くなるため、撮影画像内に顔が出現してから第2顔画像を検出するまでの処理時間は、本実施例に比べて長くなる。
第2顔検出部440は、撮影画像から第2顔画像を検出した場合、状態を顔探索期間から追跡期間へ移行させる。
図8は、追跡期間の動作を示すタイムチャートである。
この図は、第1顔検出部430と、第2顔検出部440と、顔識別部530と、顔追跡部520との動作を示す。第1顔検出部430は、顔探索期間と同様、第1顔検出周期毎に、第1顔検出処理を行う。第2顔検出部440は、追跡期間中、予め定められた時間間隔であって第1顔検出周期より長い第2顔検出周期毎に第2顔検出処理を行う。第2顔検出周期は、第2顔検出処理の最大の処理時間より長く、例えば3秒である。顔識別部530は、第2顔検出部440により検出された第2顔画像および第2正面顔検出情報に基づいて、前述の顔識別処理を行う。顔追跡部520は、第1顔検出部430により検出された第1肌色情報および第1顔画像位置に基づいて、前述の顔追跡処理を行う。
追跡期間において、第2顔検出処理が第2顔検出周期毎に実行され、得られた第2顔画像が顔識別処理に利用されることにより、顔識別処理がCPU資源を占有せず、音声認識による対話を進めながら、人物を識別することができる。これにより、応答制御部550は、対話中に対話相手の人物を識別できた時点で、その人物に適した会話に修正する。第2顔検出処理により第2顔画像が検出された場合、第1顔検出処理のための第2肌色情報を抽出して第1顔検出処理の第1肌色条件へ反映することにより、第1顔検出処理は、撮影環境や人物の変化に適応することができ、ロバスト性を高めることができる。また、ロボットの顔をユーザの顔に向けて対話を行うことにより、ユーザはロボットが自分と対話していることを認識できる。もし、処理時間が掛かる第2顔検出処理の結果を顔追跡処理に用いると、ロボットの顔の動きが遅れ、ユーザの顔に追従できなくなる。第1顔検出処理の結果を顔追跡処理に用いることにより、ロボットの顔が高速に応答することができ、ユーザの顔に追従することができる。
ここでは、第1肌色条件を変更する肌色条件変更処理について説明する。
撮影環境の変化や撮影された人物の変化などにより、撮影画像が顔の画像を含んでいても、撮影画像内の顔の肌色に対し、第1顔検出部430の第1肌色抽出部431により記憶されている第1肌色条件が適正でなく、第1顔検出部430が撮影画像から第1顔画像を検出できない場合がある。この場合、第1肌色抽出部431は、第1肌色抽出部431により記憶されている第1肌色条件を、第2顔検出部440により検出された第2肌色情報に変更する、肌色条件変更処理を行う。
図9は、肌色条件変更処理を示すタイムチャートである。
この図は、第1顔検出部430と、第2顔検出部440と、顔識別部530と、顔追跡部520との動作を示す。第1顔検出部430は、第1顔検出処理により第1顔画像を連続して検出できない時間が所定の未検出時間閾値を上回るか否かを判定する。未検出時間閾値は、例えば10秒である。第1顔画像を検出できない時間が未検出時間閾値を上回ると判定された場合、第1顔検出部430は、その後に第2顔検出部440の肌色情報抽出部443により検出された第2肌色情報を取得し、取得された第2肌色情報を新たな第1肌色条件として記憶する。
図10は、肌色条件変更処理を示す模式図である。
撮影画像が顔の画像を含んでいても第1顔検出部430が撮影画像から第1顔画像を検出できない場合(S621)として、第1肌色条件が撮影画像内の顔の肌色に対して広すぎる場合、撮影画像610から抽出された肌色領域611において眉や目や鼻や口との境界が明確でない場合や、肌色領域611が背景の物体を含んでいる場合がある。第1肌色条件が広すぎる場合とは、例えば、第1肌色条件が撮影画像内の顔の肌色の他に背景の茶色を含む場合である。また、第1肌色条件が撮影画像内の顔の肌色に対してずれている場合、撮影画像内の顔が肌色領域として検出されない場合がある。第1肌色条件がずれている場合とは、例えば、撮影画像内の顔の肌色が平均的な肌色より白く、第1肌色条件に含まれない場合である。このような場合、エッジ抽出部432により顔の特徴が抽出されず、第1顔検出部430は第1顔画像の検出に失敗する。さらに第1顔画像の検出の失敗が連続する時間が未検出時間閾値を上回り、且つ動体検出部450による動体検出をトリガーにして第2顔検出部440が撮影画像620から真正面の第2顔画像630を検出した場合、肌色情報抽出部443は、肌色条件変更処理を行う(S622)。
肌色情報抽出部443は、第2顔画像630の中の基準領域631、632、633を認識し、基準領域631、632、633内の色の各成分の最小値および最大値を第2肌色情報として抽出して第1肌色抽出部431へ出力する。第1肌色抽出部431は、第2肌色情報における各成分の最小値および最大値を、新たな第1肌色条件における各成分の下限値および上限値としてそれぞれ設定する。第1肌色抽出部431は、第2肌色情報に示された範囲から予め設定されたマージンだけ広げた範囲を第1肌色条件としても良い。
その後、第1肌色抽出部431が変更された第1肌色条件を用いて、撮影画像640から肌色領域641を抽出することにより(S623)、肌色領域611に比べて肌色領域641における眉や目や鼻や口との境界が明確になる場合や、肌色領域611に含まれていた背景の物体が肌色領域641から除かれる場合がある。この場合、エッジ抽出部432により肌色領域641からエッジ画像642が抽出され(S624)、第1顔検出部430は第1顔画像の検出に成功する。肌色情報抽出部443により抽出された第2肌色情報に合わせて、第1肌色抽出部431の第1肌色条件における色の範囲を狭くしたり、第1肌色抽出部431の第1肌色条件における色の範囲を移動させたりすることにより、撮影画像内の顔に対して適正な色の範囲を第1肌色条件として設定することができる。第1顔検出処理が未検出時間閾値に亘って第1顔画像を検出できなかった場合に、肌色条件変更処理を実行することにより、第1肌色条件を環境に合わせて変更することができる。
以下、ロボットが複数の人物と対話する場合について説明する。
ロボットが近傍にいる複数の人物と対話する場合、応答制御部550は、複数の人物から対話相手を選択し、追跡位置に基づいて、ロボットの頭部の前部を対話相手に向けるように動作機構部160を制御する。このとき、ロボットの頭部の向きにより光源色、背景色、対話相手の肌色が変化し、これにより顔追跡処理が失敗することがある。
顔識別部530や音声認識部410などにより、撮影画像内の複数の人物を識別できた場合で、応答制御部550が対話相手を切り替える場合、切り替え後の対話相手の方向に頭部の前部を向ける。この場合、応答制御部550は、対話相手のIDに対応する第2肌色情報を肌色情報記憶部540から読み出し、第1顔検出部430の第1肌色抽出部431の第1肌色条件として設定する。例えば、ロボットが複数の人物と対話する場合、ロボットの首ふりに対応して、複数の人物の第1肌色条件を切り替えることができる。これにより、対話相手の切り替えに応じてロボットの頭部の向きを変えても、第1肌色抽出部431は、対話相手に対応する第1肌色条件を用いて、第1顔検出処理および顔追跡処理を行うことができる。
対話相手のIDが識別されると、IDに対応して肌色情報記憶部540に記憶されている第2肌色情報を第1肌色抽出部431の第1肌色条件に設定することにより、対話相手に適合する第1肌色条件で第1顔検出処理を実行し、応答性と検出精度を両立することができる。
本実施例によれば、処理時間が短く検出精度は低い第1顔検出部430により検出される第1顔画像は、発話認識部510や顔追跡部520のように高速な応答が要求される処理に用いられる。処理時間が長く検出精度が高い第2顔検出部440により検出される第2顔画像は、顔識別部530のように検出精度が要求される処理に用いられる。ロボットは、顔検出処理の他に音声認識などの処理を行っており、このような顔検出処理を行うことにより、限られたリソースを用いて高速な顔検出と高精度の顔検出を両立することができる。
第2顔検出部440は、第1顔検出部430による第1顔画像の検出を契機として第2顔検出処理を行い、第1顔検出部430は、第2顔検出部440により検出される第2肌色情報を用いる。このように第1顔検出部430および第2顔検出部440が互いに情報を利用することにより、第1顔検出部430は、環境の変動や人物の変化に適応できるようになり、第2顔検出部440は、反応速度を改善できる。また、特別な検出器を設けることなく、一つの画像入力部130により取得された画像のソフトウエア処理を行うことにより、高速な顔検出と高精度の顔検出の両立を、簡単な構成および低コストで実現することができる。
なお、駆動部は、応答制御部550および動作機構部160などに対応する。記憶部は、肌色情報記憶部540などに対応する。第1色条件は、第1肌色条件などに対応する。第2色条件は、第2肌色条件などに対応する。色情報は、第2肌色情報などに対応する。第1候補画像は、第1顔検出部430における肌色領域などに対応する。第2候補画像は、第2顔検出部440における顔判定領域などに対応する。
なお、本発明は、上述した実施の形態に限定されない。当業者であれば、本発明の範囲内で、種々の追加や変更等を行うことができる。
110:音声入力部、 130:画像入力部、 140:音声出力部、 150:表示部、 160:動作機構部、 230:第1尤度算出部、 240:蓄積型算出部、 270:識別部、 310:第2尤度算出部、 400:制御部、 410:音声認識部、 421、422、423:フレームバッファ、 430:第1顔検出部、 431:肌色抽出部、 432:エッジ抽出部、 433:正面顔判定部、 440:第2顔検出部、 441:肌色抽出部、 442:顔判定部、 443:肌色情報抽出部、 450:動体検出部、 510:発話認識部、 520:顔追跡部、 530:顔識別部、 540:肌色情報記憶部、 550:応答制御部

Claims (8)

  1. 連続して撮影される撮影画像から顔を表す第1顔画像を検出する第1顔検出部と、
    前記第1顔画像が検出された場合、前記第1顔検出部による検出より長い時間を掛けて前記撮影画像から顔を表す第2顔画像を検出する第2顔検出部と、
    前記第1顔画像に基づいて、連続する撮影画像内の顔の位置を追跡する顔追跡部と、
    予め登録された少なくとも一人の顔画像に基づいて、前記第2顔画像に表されている人物を識別する顔識別部と、
    を備え、
    前記第1顔検出部は、色空間における顔の色の範囲の条件である第1色条件を記憶し、前記撮影画像から前記第1色条件を満たす領域を含む前記第1顔画像を検出し、
    前記第2顔検出部は、前記第2顔画像の中から基準領域を選択し、前記基準領域内の色の範囲を示す色情報を検出し、
    前記第1顔検出部は、前記色情報に基づいて前記第1色条件を変更し、
    前記第2顔検出部は、色空間における顔の色の範囲の条件であり且つ前記第1色条件の初期値より広い範囲を示す第2色条件を記憶し、前記撮影画像から前記第2色条件を満たす領域を含む矩形領域である第2候補画像を検出し、第2候補画像が検出されなかった場合、前記撮影画像内を走査して前記第2候補画像を決定し、前記第2候補画像が顔を表すか否かを判定する、
    ロボット。
  2. 連続して前記撮影画像を撮影する画像入力部と、
    前記位置が前記撮影画像の中心に向かう方向へ、前記画像入力部を移動させる駆動部と、を更に備える、
    請求項1に記載のロボット。
  3. 連続して撮影された複数の撮影画像内に動体が存在することを検出する動体検出部を更に備え、
    前記第1顔画像が検出された場合または前記動体の存在が検出された場合、前記第2顔検出部は、前記撮影画像から前記第2顔画像を検出する、
    請求項1又は2の何れかに記載のロボット。
  4. 前記第1顔検出部は、予め定められた第1検出周期毎に、前記第1顔画像の検出を行い、
    前記第2顔画像が検出された場合、前記顔追跡部は、前記位置の追跡を開始し、
    前記位置が追跡されている間、前記第2顔検出部は、前記第1検出周期より長く予め定められた第2検出周期毎に、前記第2顔画像の検出を行う、
    請求項1乃至3の何れかに記載のロボット。
  5. 前記第1検出部は、前記撮影画像から前記第1色条件を満たす領域を含む矩形領域である第1候補画像を検出し、前記第1候補画像が正面顔を表すか否かを判定し、前記第1候補画像が正面顔を表すと判定された場合、前記第1候補画像を前記第1顔画像と決定する、
    請求項に記載のロボット。
  6. 前記第1顔検出部は、前記第1候補画像の縦横比を算出し、前記第1候補画像内のエッジを検出し、前記縦横比と前記エッジの左右の偏差とに基づいて、前記第1候補画像が顔を表すか否かを判定する、
    請求項に記載のロボット。
  7. 前記第1顔検出部は、色空間における顔の色の範囲の条件である第1色条件を記憶し、前記撮影画像から前記第1色条件を満たす領域を含む前記第1顔画像を検出する、
    前記第2顔検出部は、前記第2顔画像の中から基準領域を選択し、前記基準領域内の色の範囲を示す色情報を検出し、
    前記第1顔検出部は、前記色情報に基づいて前記第1色条件を変更し、
    前記色情報と前記識別された人物の識別子とを関連付けて記憶する記憶部を更に備え、
    前記駆動部が特定識別子の人物の方向へ前記画像入力部を移動させる場合、第1顔検出部は、前記記憶部から前記特定識別子に対応する色情報を読み出し、前記読み出された色情報に基づいて前記第1色条件を変更する、
    請求項2に記載のロボット。
  8. 音声を音声信号に変換する音声入力部と、
    前記第1顔検出部により正面顔を表す第1顔画像が検出された場合、前記音声認識部は、ユーザから前記ロボットへの発話であると認識する発話認識部と、
    を更に備える、
    請求項1乃至の何れかに記載のロボット。
JP2014003718A 2014-01-10 2014-01-10 ロボット Active JP6147198B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014003718A JP6147198B2 (ja) 2014-01-10 2014-01-10 ロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014003718A JP6147198B2 (ja) 2014-01-10 2014-01-10 ロボット

Publications (2)

Publication Number Publication Date
JP2015132955A JP2015132955A (ja) 2015-07-23
JP6147198B2 true JP6147198B2 (ja) 2017-06-14

Family

ID=53900108

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014003718A Active JP6147198B2 (ja) 2014-01-10 2014-01-10 ロボット

Country Status (1)

Country Link
JP (1) JP6147198B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6365915B2 (ja) 2016-06-13 2018-08-01 日本電気株式会社 応対装置、応対システム、応対方法、及び記録媒体
CN106228112B (zh) 2016-07-08 2019-10-29 深圳市优必选科技有限公司 人脸检测跟踪方法及机器人头部转动控制方法和机器人
JP7026105B2 (ja) * 2017-03-24 2022-02-25 株式会社日立国際電気 サービス提供システム
CN109955248A (zh) * 2017-12-26 2019-07-02 深圳市优必选科技有限公司 一种机器人及其人脸跟随方法
JPWO2022130513A1 (ja) * 2020-12-15 2022-06-23

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4590717B2 (ja) * 2000-11-17 2010-12-01 ソニー株式会社 顔識別装置及び顔識別方法
JP3843742B2 (ja) * 2001-03-09 2006-11-08 独立行政法人科学技術振興機構 ロボット視聴覚システム
JP2004013768A (ja) * 2002-06-11 2004-01-15 Gen Tec:Kk 個人識別方法
JP2005242582A (ja) * 2004-02-25 2005-09-08 Univ Waseda 顔検出装置およびその方法
JP4577301B2 (ja) * 2006-11-24 2010-11-10 トヨタ自動車株式会社 顔向き検知装置
JP2011229044A (ja) * 2010-04-22 2011-11-10 Mitsubishi Electric Corp 画像監視記録装置

Also Published As

Publication number Publication date
JP2015132955A (ja) 2015-07-23

Similar Documents

Publication Publication Date Title
JP6147198B2 (ja) ロボット
JP6230726B2 (ja) 音声認識装置および音声認識方法
US8416998B2 (en) Information processing device, information processing method, and program
KR102133728B1 (ko) 인공지능을 이용한 멀티모달 감성인식 장치, 방법 및 저장매체
KR102463806B1 (ko) 이동이 가능한 전자 장치 및 그 동작 방법
KR20100086262A (ko) 로봇 및 그 제어방법
CN109558788B (zh) 静默语音输入辨识方法、计算装置和计算机可读介质
JP2009222969A (ja) 音声認識ロボットおよび音声認識ロボットの制御方法
KR102290186B1 (ko) 사람의 감성 상태를 결정하기 위하여 영상을 처리하는 감성인식 방법
US20210256282A1 (en) Information processing apparatus, information processing method, and storage medium
JP2010128015A (ja) 音声認識の誤認識判定装置及び音声認識の誤認識判定プログラム
JP2019217122A (ja) ロボット、ロボットの制御方法及びプログラム
JP2007280417A (ja) 姿勢認識装置及び自律ロボット
CN110221693A (zh) 一种基于人机交互的智能零售终端操作***
CN111241922B (zh) 一种机器人及其控制方法、计算机可读存储介质
KR20120091625A (ko) 스테레오 카메라 기반의 3차원 실시간 입술 특징점 추출을 이용한 음성 인식 장치 및 음성 인식 방법
US20200272810A1 (en) Response apparatus and response method
US20220013117A1 (en) Information processing apparatus and information processing method
US20230073265A1 (en) Information processing device and action mode setting method
US20210103736A1 (en) Control apparatus, control system, control method, and storage medium
KR20210066774A (ko) 멀티모달 기반 사용자 구별 방법 및 장치
JP2015150620A (ja) ロボット制御システムおよびロボット制御プログラム
JP5718973B2 (ja) 顔認識装置、顔認識方法、およびコンピュータプログラム
JP6916130B2 (ja) 話者推定方法および話者推定装置
EP2793102A2 (en) Information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170516

R150 Certificate of patent or registration of utility model

Ref document number: 6147198

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250