JP6155032B2 - 撮影システム - Google Patents

撮影システム Download PDF

Info

Publication number
JP6155032B2
JP6155032B2 JP2013017245A JP2013017245A JP6155032B2 JP 6155032 B2 JP6155032 B2 JP 6155032B2 JP 2013017245 A JP2013017245 A JP 2013017245A JP 2013017245 A JP2013017245 A JP 2013017245A JP 6155032 B2 JP6155032 B2 JP 6155032B2
Authority
JP
Japan
Prior art keywords
building
image
person
flying robot
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013017245A
Other languages
English (en)
Other versions
JP2014149620A (ja
Inventor
正人 山納
正人 山納
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2013017245A priority Critical patent/JP6155032B2/ja
Publication of JP2014149620A publication Critical patent/JP2014149620A/ja
Application granted granted Critical
Publication of JP6155032B2 publication Critical patent/JP6155032B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、建物から逃走しようとする賊を移動ロボットから撮影する撮影システムに関し、特に、建物内で撮影された賊を建物外においても移動ロボットから撮影する撮影システムに関する。
従来、建物とその周辺の監視領域に各種センサを設置し、センサが異常を検出すると、異常検知した場所に移動ロボットが移動して監視領域内を撮影する監視システムが提案されている。
例えば、特許文献1には、火災を検出するセンサや侵入者を検出するセンサからの信号に基づいて、地上走行型の移動ロボットが異常発生の場所に移動して異常状況を撮影する監視システムが開示されている。このような監視システムは、駐車場が設けられているような工場やショッピングモールなど広範囲な監視領域を監視することがある。特許文献1のシステムでは、移動ロボットは、センサが異常を検知した場所まで走行して、その異常発生場所の撮影や監視センタへの通報などを実行している。
特開2009−181270号公報
ところで、広範囲な監視領域を持つ移動ロボットであっても、屋内移動と屋外移動の両方を可能にするのは困難な場合が多い。例えば、特許文献1に記載されている移動ロボットは、屋外の駐車場等の敷地を監視対象としている。このため、移動ロボットが建物の内側に入ろうとすると、建物の扉を開けなければならず、建物に階段があれば階段を昇降する機能を備える必要が出てくる。このため、移動ロボットは、屋内用と屋外用というように、担当する場所が予め決められている。
このような状況において、屋内に入ることができない屋外用の移動ロボットは、建物に賊が入ったとの信号を受け、撮影の準備を完了し、いざ建物の外にいる人物を撮影しようにも、何れの人物が賊なのかがわからず、賊が逃走してもそれがわからないという問題があった。
そこで、本発明は、屋内で撮影された賊の画像から、賊を特定するための人物特徴を抽出しておき、屋外で撮影された人物の画像から抽出した人物特徴との照合を行うことができる撮影システムの実現を目的とする
かかる目的を達成するために本発明は、建物内への侵入者を検出する建物内センサと、建物内を撮影する建物内カメラと、建物の外部を飛行しつつ撮影する飛行ロボットと、建物内カメラまたは飛行ロボットが撮影した画像を処理する画像処理部と、飛行ロボットの飛行を制御する飛行ロボット制御部を有する制御装置を備え、画像処理部は、建物センサが侵入者を検出した後、建物内カメラが撮影した建物内画像から抽出した人物領域と飛行ロボットが撮影した屋外画像から抽出した人物領域が同一人物のものか否かを照合し、照合結果を飛行ロボット制御部に出力し、飛行ロボット制御部は、画像処理部が同一人物と判定すると人物を追跡するように飛行ロボットを制御することを特徴とした撮影システムを提供する。
本発明にかかる撮影システムは、建物に侵入した侵入者と建物の外にいる人物との一致を判定することにより、侵入者らしき人物が建物の外に複数いたとしても、何れの人物が建物に侵入した賊であるかを特定し、その人物を追跡することができる。
また、撮影システムは、建物の外部領域に存在する物***置を出力する物体センサを設置し、制御装置は、物体センサの出力に基づき人物位置を算出する物***置算出部を更に有し、飛行ロボット制御部は、物***置算出部にて算出された人物を撮影するように飛行ロボットを制御することが好適である。
これにより、建物の外にいる人物を、飛行ロボットが撮影した画像から検出するよりも広い領域について人物を検出できる。
また、画像処理部は、人物領域から顔画像、服装情報、身長情報のうちの少なくとも1つを人物特徴として抽出して照合することが好適である。
これにより、人物を特徴付ける情報として有用な顔画像の他、服装情報なども併用して精度良く照合できる。
本発明によれば、建物外に存在する人物の何れかが賊なのかを判定でき、その後の追跡処理に活用できる。
飛行ロボットの飛行イメージを説明する図 飛行ロボットの機能ブロック図 監視システムの全体構成図 警備装置の機能ブロック図 ロボ制御モジュールの機能ブロック図 建物内画像から顔領域と胴体領域の抽出の様子を示す模式図 顔画像の照合処理に用いられる参照顔画像の模式図 レーザセンサの検知エリアを示す図 建物内画像についての処理フロー 侵入した賊を検出した時の飛行ロボットの制御フロー 屋外画像が取得されたときの処理フロー
以下、本発明にかかる撮影システムを監視システムに適用した実施の形態について説明する。
図3は、監視システム1の全体構成を模式に示した図である。監視システム1は、監視領域Eに設置される警備装置2、飛行ロボット3、レーザセンサ4、建物内センサ5と、ネットワークを介して接続される監視センタ内に設置されたセンタ装置6、建物内センサ5の検知範囲をおおよそ視野範囲とするカラーの建物内カメラ7から構成されている。
センタ装置6は、警備装置2とIP網にて接続され、警備装置2から飛行ロボット3の撮影した画像や建物内カメラ7が撮影した画像、建物内センサ5の検知信号などを受信し、モニタに表示する。なお、監視員は、このモニタを視て監視領域Eの状況を把握し、適切な対応を実行する。また、ネットワークをIP網として説明しているが、一般公衆回線網、携帯電話網など画像の送受信に支障がなければこれに限るものではない。
また図示はしていないが、建物内が暗く、建物内カメラ7の撮影に支障がある場合に対応するため、照明装置を備えるのも好適である。
飛行ロボット3は、警備装置2からの無線による飛行制御信号を受信して、所定の目標位置まで撮影しながら飛行し、撮影した画像を警備装置2に送信する。図2は、飛行ロボット3の機能ブロックを示した図である。
飛行ロボット3は、警備装置2との無線通信を行うためのアンテナ31、上昇/下降/方向転換/前進などの飛行するための4つのロータ32、ロータ32に駆動力を提供するモータ等からなるロータ駆動部33、鉛直下方にレーザーを投受光して飛行ロボット3の現在高度を計測する高度センサ34、水平方向かつ周囲にレーザーを投受光して飛行ロボット3の周辺状況を計測する測距センサ35、飛行ロボット3の前方をカラー画像にて撮影するカメラ36、周囲が暗いときに点灯しカメラ36での撮影を補助するLED照明である照明37、飛行ロボット3の全体を制御するロボ制御部38、飛行ロボット3の各部に電気を供給するリチウムポリマー電池である電源39から構成されている。
また、ロボ制御部38は、アンテナ31を介して警備装置2との無線通信を制御する通信制御手段381、カメラ36の撮影開始/終了やカメラ36が撮影した画像を取得して通信制御手段381から警備装置2へ送信するなどの処理をするカメラ制御手段382、測距センサ35および高度センサ34が測定した高度情報および周辺物体と自機との距離データをスキャンデータとして通信制御手段381から警備装置2へ送信するなどの処理をするスキャン手段383、警備装置2からの飛行制御信号に基づいてロータ駆動部33を制御して飛行ロボット3を目標位置に飛行するように制御する飛行制御手段384から構成されている。
次に、図1、図4、図5を参照して、警備装置2について詳細に説明する。図1に示す監視領域Eの建屋Bの内部に警備装置2は設置されている。警備装置2は、建屋B内へ不法に侵入を試みる賊、あるいは侵入した賊(以下では侵入者と称する)を検知するための適宜の場所に設置された建物内センサ5、建物内センサ5の検知範囲をおおよそ視野範囲とする建物内カメラ7、監視領域E内であって駐車場等の建屋Bの外を検知領域とし物***置を出力するレーザセンサ4とそれぞれ接続されている。
図4は、警備装置2の機能ブロックを示す図である。警備装置2は、監視領域Eを監視センタが監視する警備セット状態と監視センタで監視しない警備解除状態との切替操作を行う警備モード切替部21と、レーザセンサ4や建物内センサ5などの各種センサからの信号および建物内カメラ7からの画像の入力を受けるセンサインタフェース22、飛行ロボット3との通信を行う飛行ロボット通信部25、飛行ロボット3が撮影した画像、各種センサが検知した異常信号などについて、センタ装置6とネットワークを介して通信を行う監視センタ通信部26、警備装置2の処理に必要なプログラムや各種のデータ、パラメータなどを記憶しているROM/RAMなどの周辺部品にて構成される記憶部24、および警備装置2の全体を統括制御するCPU、MPUなどから成る警備制御部23から構成されている。
ここで、記憶部24に記憶されている情報について説明する。監視空間マップ241は、監視領域Eを3次元にて表現した情報であって、地面から飛行ロボット3の飛行に必要な程度の高さまでの監視空間を表現したマップ情報である。本実施の形態では、監視領域Eと外部を仕切る塀の存在、建屋B、レーザセンサ4の設置位置などの予め監視空間内に存在している物体の情報が記憶されている。なお、監視空間マップ241には、建屋B内部の3次元情報も入っており、例えば扉や窓のように人が出入り可能な場所が登録されている。
建物内センサカメラ配置情報242は、各建物内センサ5および各建物内カメラ7の監視場所の監視空間マップ241における位置情報である。これは、予め警備計画によって決められており、建物内センサ5ごとに監視空間マップ241上の位置が対応付けられている。
レーザセンサパラメータ243は、レーザセンサ4の監視空間マップ241における位置、レーザセンサ4の検知領域における位置と監視空間マップ241上の位置との対応関係を含む情報であり、レーザセンサ4にて物体検知した位置を監視空間マップ241上の位置に変換するためのパラメータである。
なお、各種パラメータ244は、そのほかに警備装置2が監視領域Eを監視するために必要なセンタ装置6のIPアドレスや飛行ロボット3との通信のためのデータなど種々必要なパラメータである。記憶部24には、これら以外に警備装置2の機能を実現するための各種プログラムが記憶されている。
3次元顔形状データ245は、人物の顔の標準的な3次元形状をフレームモデルで表現するためのデータであり、人物の顔について特徴的な部位の部分、例えば目について目頭や目尻、鼻について鼻尖点、口について口角点などに特徴点が設定されている。特徴点は、後述する2次元の顔画像との合成処理に必要な数だけ予め設定されている。
なお、3次元顔形状データ245の表現方法としては、ワイヤーフレームモデルに限らず、サーフェイスモデル等、人物の3次元構造をモデル化できる方法であれば他の方法を用いてもよい。
次に、警備制御部23について詳細に説明する。なお、警備制御部23は、記憶部24には図示していないソフトウェアモジュールを読み出して、CPU等にて各処理を行うものである。
レーザセンサ解析モジュール231は、物***置算出部として動作し、センサインタフェース22から入力されるレーザセンサ4の信号を解析処理するソフトウェアである。具体的には、物体センサであるレーザセンサ4がレーザー光にて検知エリアを走査した結果である探査信号を時系列に解析する。検知エリアに新たな進入物体等がなければ、時系列に入力されるレーザセンサ4の探査信号はあまり変化しないので、移動物体なしとの解析結果となる。他方、検知エリアに新たな進入物体等があれば、レーザセンサ4の探査信号に変化が生じるので、変化が出た検知エリアでの位置を解析して求める。更に、記憶部24のレーザセンサパラメータ243を用いて、監視空間マップ241上の位置に変換し、進入物体の位置・大きさ・移動方向を算出し、進入物体を監視空間マップ241上で追跡する。また、進入物体が停止すると、その後の信号の変化がなくなるので、追跡していた人物等の物体が、停止したと判定することができる。
また、レーザセンサ解析モジュール231の解析結果は、後述する異常判定モジュール232や飛行ロボット制御モジュール233に出力される。
異常判定モジュール232は、警備モード切替部21からの警備セット/解除信号、建物内センサ5、レーザセンサ4からの信号を受信し、監視領域Eに異常が発生したか否かを判定する。異常判定モジュール232は、警備モード切替部21から警備セット信号を受信すると監視領域Eを警戒する警備セットモードとし、警備解除信号を受信すると監視領域Eを警戒していない警備解除モードに設定する。
そして、警備解除モードでは、建物内センサ5やレーザセンサ4からの検知信号を受信しても、特段の処理は行わない。他方、警備セットモードでは、建物内センサ5やレーザセンサ4からの検知信号を受信すると異常発生と判定し、監視センタ通信部26からセンタ装置6に異常通報する。異常通報とともに、建物内センサ5からの検知信号を受信した場合には、飛行ロボット制御モジュール233に対して飛行ロボット3の起動制御を実行する。そして、飛行ロボット通信部25から受信した飛行ロボット3が撮影した画像を監視センタ通信部26からセンタ装置6に送信する処理を異常状態の解除がされるまで継続する。なお、異常状態の解除方法は種々存在するが、本発明との関連性が低いので説明は省略する。
飛行ロボット制御モジュール233は、飛行ロボット制御部として動作し、異常判定モジュール232にて飛行ロボット3の起動信号を受けると、飛行ロボット通信部25から飛行ロボット3の飛行制御を行う。また、飛行ロボット制御モジュール233は、後述する画像処理モジュール234が出力する照合結果を受け、建物内カメラ7が撮影した侵入者と一致する人物を追跡するよう飛行ロボット3の飛行制御を行う。
ここで、図5を参照して飛行ロボット制御モジュール233を詳細に説明する。図5は、飛行ロボット制御モジュール233の機能ブロック図である。飛行ロボット制御モジュール233は、飛行ロボット3が到達するべき目標位置を決める目標位置設定手段イと、目標位置設定手段イが設定した目標位置に到達するための飛行経路を算出する飛行経路算出手段ロと、飛行経路算出手段ロが算出した飛行経路にて飛行するように飛行ロボット3へ飛行制御信号を生成して送信するロボ制御手段ハと、飛行ロボット3の監視空間マップ241上における現在の飛行位置を算出する飛行位置算出手段ニから構成されている。
目標位置設定手段イは、レーザセンサ解析モジュール231が算出した人物の監視空間マップ241上の位置において、その人物の位置から3m以上離れ、かつ地上3m程度の高度を目標位置とする。
なお、ここで人物の位置から3m以上離れ、かつ地上3m程度の高度との目標位置は、後述するように、飛行ロボット3が人物の顔を撮影する際の俯角を30度以下としつつ、賊から飛行ロボット3が届かないようにするための位置である。飛行ロボット3が搭載するカメラの焦点距離によっては、更に遠い位置から人物の顔を撮影できるが、顔に加えて、服装情報や身長情報も取得するため全身が撮影できるように、焦点距離を考慮した目標位置を設定する。
また、目標位置設定手段イが、目標位置を設定するのは、レーザセンサ4により建屋Bから人物が出てきたと判定された後が好ましい。これは、建物内センサ5が侵入者を検出した直後は、その侵入者がまだ建屋B内部にいる段階と考えられ、その時偶然監視空間Eに居合わせた賊ではない人物を侵入者と間違えないようにするためである。
図4に戻って、画像処理モジュール234は、飛行ロボット通信部25から受信した飛行ロボット3が撮影した画像および建物内カメラ7が撮影した画像を処理する。
画像処理モジュール234は、画像処理部として動作し、建物内カメラ7が撮影した建物内画像および飛行ロボット3が備えるカメラ36が撮影した屋外画像に写っている人物の人物特徴を抽出して照合を行う。すなわち、両カメラからの画像をキャプチャし、キャプチャした画像について以下に述べる処理を行う。
まず建物内画像を対象とした処理について、図6に示す模式図を参照して述べる。
建物内センサ5が、侵入者の存在を検知すると、建物内カメラ7は、建物内センサ5の検知範囲を撮影し、建物内画像を取得する。図6(a)に取得された建物内画像600の例を示す。建物内画像600には、窓601を破壊して建屋Bの内部に侵入してきた侵入者602が捉えられている様子が模式的に示されている。
画像処理モジュール234は、建物内カメラ7から建物内画像600を取得すると、種々の人物についての画像により学習した学習識別器を用いて人物領域を抽出する。例えば、HOG特徴量やHaar−Like特徴量と呼ばれる特徴量を用い、人物の有無についての学習データを用いて事前に構築した学習識別器により人物領域を抽出する。学習識別器による人物領域の抽出は、AdaBoost識別器など、適宜公知のものを用いればよいので、詳細は省略する。図6(a)には、侵入者602についての人物領域603が抽出された様子を示している。
画像処理モジュール234は、抽出した人物領域603から、侵入者602を建屋Bの外にて特定するのに用いる情報を得るために、顔領域と胴体領域を抽出する。
顔領域については、図6(b)に示すように、人物領域603に含まれる画像について、人の頭部らしい楕円形状の検出アルゴリズムを用いることで顔領域604を抽出できる。あるいは人物領域603を抽出するのと同様に顔領域抽出のための学習識別器を構築しておいて適用しても良い。
胴体領域については、人物領域603から顔領域604を除いた残りとすることで胴体領域605を抽出できる。
図6(c)は、顔領域604に含まれる画像を切り出した顔画像606であり、図6(d)は、胴体領域605に含まれる画像を切り出した胴体画像607である。
また、画像処理モジュール234は、顔画像606について、顔の部位の特徴的な部分を表す特徴点抽出処理を行う。特徴点を抽出するには、適宜公知の方法を用いれば良いが、顔画像606からエッジ情報を抽出して、顔の各部位のエッジ情報とのテンプレートマッチングによる行うことができる。図6(c)には、両目の目尻、目頭、鼻尖点、左右口角点、口点の8個の特徴点608が設定されている様子が模式的に示されている。顔画像606に設定される特徴点は、3次元顔形状データ245に設定されている特徴点に対応する位置に設定され、その数は3次元顔形状データ245に設定されている特徴点の数と同じか多いことが望ましい。本実施の形態では、3次元顔形状データ245に設定されている特徴点の位置と数に等しいだけ抽出する。
画像処理モジュール234は、抽出した胴体画像607から侵入者602が着用する服装の情報を抽出する。画像処理モジュール234は、胴体画像607を、図6(d)でいう上下方向に2分割し、上半身と下半身に対応する領域とする。そして、それぞれの領域に含まれる画素について輝度値の平均を求め、そのRGB値を用いて服の色を判定する。例えば、RGB値がそれぞれ(245,15,20)の場合にはR成分の強度が他の成分に比較して強いため、侵入者602は赤色の服を着用していると判定する。同様にRGB値が(10,5,15)の場合には、各色成分とも低い値であるので、侵入者602は黒色の服を着用していると判定する。
さらに画像処理モジュール234は、上半身と下半身のそれぞれに対応する領域に含まれる画素の値を参照して、2次元画像に対する周波数解析を行い、服装に関してテクスチャ情報を抽出する。例えば、人物の身長方向に直線成分が多く含まれると判断されると「縦縞の服」、何れの方向にも直線成分が含まれないと判断されると「無地の服」とする。
周波数解析手法については、フーリエ変換やガボールウェーブレット変換など周知のものを適宜採用できる。
画像処理モジュール234は、侵入者602の身長を算出する。そのために画像処理モジュール234は、焦点距離や俯角等の建物内カメラ7に関する撮影パラメータを参照し、建物内画像600における人物領域603の位置や大きさから、既知の方法に基づき、侵入者602の身長を算出する。具体的な方法は、撮影技術の分野で公知の幾何学的な計算に依ればよいので省略する。
侵入者602の上半身と下半身の服装情報、身長情報は、記憶部24に一時記憶する。
画像処理モジュール234は、顔画像606と記憶部24に記憶されている3次元顔形状データ245とを合成して、3次元顔モデルを作成し、顔画像の照合に用いる参照顔画像を生成する。その処理を、図7を参照して説明する。
図7(a)には、3次元顔形状データ245が模式的に示されている。3次元顔形状データ245には、図6(c)に示した顔画像606と同様に、顔の特徴的な部分である、両目の目尻、目頭、鼻尖点、左右口角点、口点の8箇所にそれぞれ特徴点2451が設定されている。
そして画像処理モジュール234は、顔画像606と3次元顔形状データ245の特徴点を基準に、3次元顔形状データ245を回転拡大収縮させて位置合わせ処理を行い、最も良く位置合わせがされたと判断されると、3次元顔形状データ245に顔画像606を貼り付ける合成処理を行い、3次元顔モデルを得る。特徴点を基準とした2次元の顔画像と3次元の顔形状データとの位置合わせの方法は公知の方法を適宜採用すればよい。
そして画像処理モジュール234は、得られた3次元顔モデルを複数の角度の顔向きに調整して2次元平面に投影した参照顔画像を生成し、記憶部24に一時記憶する。なお、合成前の顔画像606から抽出された特徴点608も同時に参照顔画像に投影されて設定される。
図7(b)に参照顔画像700が模式的に示されている。同図に示すように、参照顔画像700は、顔画像606と3次元顔形状データ245とを合成した3次元顔モデルを様々な向きに向けたものであり、同図に向かって左右に正面から10度、20度回転させたものと、更にそれぞれを、顔を頷かせるよう下方向に15度、30度回転させたものである。
例えば同図において“A7”と示されている参照顔画像は、3次元顔モデルを向かって左に10度、下方向に15度回転させて2次元化したものである。
これらの回転の角度の範囲と刻みの角度は例示であり、他の値に設定しても良いが、余りにも大きく回転させると顔の特徴が顔画像に含まれなくなるので、顔画像による照合ができない。また回転の角度の範囲は、目標位置設定手段イにおける、飛行ロボット3を人物に対してどれだけの高さでどれだけ離した位置を目標位置に設定するかの処理に影響するので、顔画像認証に耐えうる範囲を設計パラメータとして決める必要がある。本実施の形態では、左右方向に20度まで、下方向に30度までしており、それに応じて目標位置設定手段イによる目標位置を定めている。
参照顔画像700を作成して顔画像の照合処理に用いるのは、飛行ロボット3は人物の周囲を飛行しつつその人物を撮影するため、建物内カメラ7にて取得された顔画像に写っている顔の向きと同じ顔の向きの顔画像が取得できることは必ずしも期待できないためである。そこで3次元顔形状データ245を用いて様々向きの参照顔画像700を生成すれば、そのいずれかは、飛行ロボット3が取得した顔画像の顔の向きとおおよそ揃うと考えられるので、精度の良い照合が可能となる。
なお、参照顔画像700は、顔を上に向ける方向のものも生成してもよいが、図1からわかるように、飛行ロボット3は、人物の上から見下ろすように撮影するため、飛行ロボット3が撮影した画像には、飛行ロボット3に対して顔を正面に向けるか下に向けた状態で写ると考えられる。そこで処理量と記憶容量の削減の観点から、図7(b)のように顔を正面および下に向けた参照顔画像を生成することで十分対応できる。
画像処理モジュール234は、飛行ロボット3が撮影した屋外画像について、建物内カメラ7が撮影した建物内画像に対する処理と同様の処理により、顔画像の抽出、服装情報の抽出、身長情報の計算を行う。顔画像から特徴点を抽出することも同様である。
なお身長情報の計算にあたっては、カメラ36の撮影パラメータとしての焦点距離と水平方向からの俯角に関する情報が必要になるが、飛行ロボット3は常に水平の状態にて撮影するものとすれば設計パラメータとして既知とできる。また、地面からの高さは飛行ロボ3が備える高度センサ34の出力を参照すればよい。撮影対象となる人物との距離は測距センサ35の出力を参照するか、レーザセンサ4の出力を参照して位置関係を把握すればよい。
画像処理モジュール234は、建物内カメラ7が撮影した建物内画像から抽出した顔画像、服装情報、身長情報と、飛行ロボット3が撮影した屋外画像から抽出した顔画像、服装情報、身長情報との照合を行う。
画像処理モジュール234は、顔画像の照合として、建物内画像から抽出した顔画像を用いて生成され、記憶部24に一時記憶されている参照顔画像700のそれぞれと、飛行ロボット3が撮影した屋外画像から抽出した顔画像との照合を行う。
すなわち参照顔画像700上の各特徴点を中心とした小領域に含まれる画素から、エッジ情報や色情報などの特徴量を抽出して、飛行ロボット3が撮影した顔画像上の対応する特徴点について同じく特徴量を算出する。特徴点毎の特徴量の差の総和が閾値以下の場合に、顔画像による照合では、2枚の顔画像に写った人物は同一人物であるとする。
なお参照顔画像700は図7(b)に示すように複数枚あるが、いずれかの参照顔画像にて上記総和が閾値以下の場合、顔画像による照合では同一人物と判定する。顔画像の照合の方法は各種方法が周知であるので、何れの方法を用いてもよい。
画像処理モジュール234は、建物内画像から抽出した服装情報と、屋外画像から抽出した服装情報を比較し、服装情報による照合を行う。服装情報による照合は、上半身の服装の色とテクスチャ、下半身の服装の色とテクスチャの一致の可否による。例えば、上半身の服装の色、上半身の服装のテクスチャ、下半身の服装の色、下半身の服装のテクスチャを順に並べたものが、建物内画像については(黒、縦縞、黒、無地)であり、屋外画像については(黒、縦縞、黒、無地)である場合には、服装情報による照合では同一人物であると判定する。一方、例えば、建物内画像については(黒、縦縞、黒、無地)であり、屋外画像については(灰色、無地、紺、無地)である場合には、服装情報による照合では同一人物ではないと判定する。
画像処理モジュール234は、建物内画像から計算した身長情報と、屋外画像から計算した身長情報を比較し、身長情報による照合を行う。身長情報による照合は、両画像から計算された身長の値の差が所定の閾値以内であるか否かで判定する。例えばその差が5センチ以内である場合には、身長情報による照合では同一人物であると判定し、5センチを超える場合には同一人物ではないと判定する。
画像処理モジュール234は、顔画像、服装情報、身長情報それぞれの照合を行い、いずれもが一致する場合に、建物内画像に写っている人物と屋外画像に写っている人物は同一人物であると判定し、いずれかが異なっている場合には同一人物ではないと判定する。そしてその判定結果を飛行ロボット制御モジュール233に出力する。
図3に戻って、レーザセンサ4は、屋外に設置されて、物体センサとして監視領域Eの駐車場や建屋Bの周囲への進入を監視している。図8は、レーザセンサ4の検知エリアを示した図である。同図に示すように、レーザセンサ4−1が監視領域Eの左上から建屋B方向を検知エリアとして設置され、レーザセンサ4−2が監視領域Eの右下から建屋B方向の裏手を検知エリアとするように設置されている。
レーザセンサ4は、予め設定された検知エリアを走査するように、放射状にレーザー光である探査信号を送信し、検知エリア内の物体に反射して戻ってきた探査信号を受信する。そして、送信と受信の時間差から物体までの距離を算出し、その探査信号を送信した方向と算出した距離を求める。
そしてレーザセンサ4は、所定周期で検知エリアを走査した走査単位の結果を警備装置2に送信する。これにより、警備装置2のレーザセンサ解析モジュール231にて、監視領域Eにおける屋外での物体配置状況や人物の有無や追跡などが可能となる。本実施の形態では、地上に存在する人物の進入監視を目的としているため、水平方向に1段での走査としているが、監視目的によっては、鉛直方向にも複数段の走査をするようにしてもよい。
次に、このように構成された監視システム1の動作イメージについて、図1を参照して説明する。図1(a)は、警備セットモード中に、侵入者が建屋Bに侵入したときの様子を示している。
侵入者が窓ガラスを破壊するなどして建屋Bに侵入すると、窓ガラスの破壊や、人の侵入行為をセンサが検出して警備装置2に通知する。図1(a)では、建物内センサ5fが、侵入者が窓ガラスを破壊したことを検知し、受動型赤外線人体検知センサなどから構成される建物内センサ5dが侵入者を検知しており、建物内センサ5dの検知範囲と概略同じまたはその検知範囲を含む範囲を撮影可能に設定された建物内カメラ7aが侵入者を撮影した様子を示している。
また飛行ロボット3は、建物内センサ5fや建物内センサ5dが反応したことに呼応して、侵入者を撮影する準備のため、飛行を開始している。
図1(b)は、建屋Bから侵入者らしき人物が出てきたときの状況を示している。このような、侵入者の可能性がある人物を本実施の形態では、候補侵入者と呼ぶことにする。まず、候補侵入者が建屋Bから出てくると、レーザセンサ4の信号に基づき、警備制御装置23のレーザセンサ解析モジュール231は、監視空間内における候補侵入者の位置を求める。そして、警備装置2は、飛行ロボット3の制御を行い、候補侵入者の顔を可能な限り俯角が小さい状態で撮影できる位置に飛行させて、候補侵入者の顔を含む全身を撮影している。
本発明にかかる撮影システムを適用した監視システム1は、図1(b)の候補侵入者が、図1(a)の侵入者と一致するか否かを判定する。
次に、侵入者が建屋Bに侵入した後、画像処理モジュール234にて、照合に用いられる特徴が算出される手順を図9のフロー図を用いて説明する。
まず監視領域Eおよび建屋Bが警備セット状態にて、侵入者が窓ガラスを破壊し建屋Bに侵入すると窓ガラスに設置された建物内センサ5が反応し、異常状態であるとして、警備装置2にその旨を示す信号を送信する。そして、それに応じて建物内センサ5が設置されている部屋に設置された建物内カメラ7が侵入者を含む建物内画像を取得し、警備装置2に送信する(S91)。
画像処理モジュール234は、建物内カメラ7から送信されてきた建物内画像から人物領域を抽出する(S92、図6(a)参照)。
画像処理モジュール234は、ステップS92で抽出した人物領域と、建物内カメラ7の撮影パラメータなどを用いて侵入者の身長を計算する(S93)。
画像処理モジュール234は、ステップS93で抽出した人物領域から顔領域と胴体領域を抽出する(S94、図6(b)参照)。
画像処理モジュール234は、ステップS93で抽出した顔領域に含まれる顔画像と、記憶部24に記憶された3次元顔形状データ245をと合成して、3次元顔モデルを生成する(S95)。
画像処理モジュール234は、ステップS95にて生成した3次元顔モデルを様々な方向に調整して2次元平面に投影した参照顔画像700を生成し(S96、図7(b)参照)、記憶部24に一時記憶する(S98)。
また画像処理モジュール234は、ステップS94にて抽出した胴体領域に含まれる胴体画像から、上半身の服装情報、下半身の服装情報を抽出し(S97)、記憶部24に一時記憶する(S98)。
次に、警備装置2による飛行ロボット3の制御のための処理について、図10を参照して説明する。図10は、監視領域Eが警備セット状態において、建物内センサ5が侵入者を検知した後における警備装置2の処理フローである。
まず、建物内センサ5により侵入者が検知されると、目標位置設定手段イは、レーザセンサ解析モジュール231が解析した、建屋Bの外に存在する人物を侵入者の可能性のある候補侵入者とし、その候補侵入者の現在位置を特定する(S101)。
そして、その候補侵入者の現在位置から3m以上離れ、かつ地上3m程度の高度を目標位置とする(S102)。
そして、飛行経路算出手段ロは、ステップS101にて設定された目標位置、飛行ロボット3の現在位置、監視空間マップ241を用いて既定の経路探索アルゴリズムにより、飛行経路を計算する。既定の経路探索アルゴリズムは、現在位置と目標位置を設定すれば、監視空間マップ241の配置状況および飛行ロボット3の大きさ等を考慮して、安全にかつ最短で到着できる経路を算出する(S103)。
なお、飛行ロボット3は、起動信号を受信するまでは、所定の待機位置に所在しているので、その位置が現在位置となっている。その他のときは、飛行位置算出手段ニが、飛行ロボット3のスキャン手段383が取得したスキャンデータを受信し、このスキャンデータが監視空間マップ241に合致する場所を算出することにより、飛行ロボット3の現在位置を算出する。なお、本実施の形態では、スキャンデータに基づいて現在位置を算出しているが、これに限らず飛行ロボット3にGPS信号の受信機能を設けて、GPS信号に基づいて現在位置を算出してもよい。
次に、ロボ制御手段ハは、飛行ロボット3が飛行経路算出手段ロの算出した経路を飛行できるように、飛行ロボット3の飛行制御信号を算出する。具体的な飛行制御信号は、飛行ロボット3にある4つのロータ32のそれぞれの回転数である。そして、飛行ロボット通信部25から無線信号にて飛行制御信号を送信する(S104)。
飛行ロボット3は、アンテナ31から飛行制御信号を受信すると、受信した飛行制御信号に基づいて飛行する。具体的には、アンテナ31から受信した飛行制御信号を飛行制御手段384に入力され、ロータ駆動部33から各ロータ32の回転数を個別に制御して飛行する。
飛行ロボット制御モジュール233は、目標位置設定手段イがステップS102にて設定した目標位置と、飛行位置算出手段ニが算出した飛行ロボット3の現在位置を比較し、目標位置に飛行ロボットが到着したか否かを判定する(S105)。目標位置に到着していないと判断される場合にはステップS94に戻り飛行制御を続行する。目標位置に到着したと判定されると(S105のYesの分岐)、飛行ロボット3は、監視領域Eに存在する候補侵入者を撮影し、取得した屋外画像を記憶部2に一時記憶し、照合処理を行う(S106)。ステップS106の処理の詳細は図11を用いて後述する。
なお、監視領域Eに、候補侵入者が複数人存在する場合には、それぞれの候補侵入者についてステップS101から処理を繰り返す。
ここで、図10に示すフローに記載しなかったが、飛行ロボット3が最初に飛行制御信号を受信すると、スキャン手段383が測距センサ35、高度センサ34を起動し、警備装置2にスキャンデータの送信を開始する。
次に、図10におけるS106の処理を図11のフロー図を用いて説明する。
まず、飛行ロボット3に搭載されたカメラ36が候補侵入者を含む屋外画像を取得し、警備装置2に送信する(S111)。
画像処理モジュール234は、飛行ロボット3から送信されてきた屋外画像から人物領域を抽出する(S112)。これは図9におけるステップS92と同様である。
画像処理モジュール234は、ステップS111で抽出した人物領域と、飛行ロボット3に搭載されたカメラ36の撮影パラメータや、現在の飛行ロボット3の位置などを用いて候補侵入者の身長を計算し、記憶部24に一時記憶されている、建物内画像に写っている侵入者の身長と照合する(S113)。その身長の差が所定の閾値(例えば5センチ)以内の場合には、身長情報による照合では同一人物と判定する。
画像処理モジュール234は、ステップS112で抽出した人物領域から顔領域と胴体領域を抽出する(S114)。これは図9におけるステップS94と同様である。
画像処理モジュール234は、ステップS114にて抽出した顔領域に含まれる顔画像と、記憶部24に一時記憶されている参照顔画像700のそれぞれと照合し、いずれかの参照顔画像と一致する場合に、顔画像による照合では同一人物が写っていると判定する(S115)。
画像処理モジュール234は、ステップS114にて抽出した胴体領域に含まれる胴体画像から服装情報を抽出し、記憶部24に一時記憶されている服装情報と照合する(S116)。服装情報が一致する場合には、服装情報による照合では同一人物と判定する。
画像処理モジュール234は、顔画像による照合、身長情報による照合、服装情報による照合の何れにおいても同一人物と判定された場合には、建物内画像に写った人物と屋外画像に写った人物は同一人物であると判定する。すなわち建屋Bに侵入した侵入者を建屋Bの外にて撮影できたと判定し(S117のYes)、警備制御部23は、その旨および顔画像、身長情報、服装情報を、監視センタ通信部26を経由して監視センタ6に送信する(S118)。顔画像による照合、身長情報による照合、服装情報による照合のすべてにおいて同一人物と判定されることを条件にせずとも、顔画像による照合は必須として、他の2つのいずれかの照合において同一人物と判定されることを条件にしてもよい。
一方、ステップS117で同一人物ではないと判定される場合には(Noの分岐)、処理をステップS111に戻し、同じ候補侵入者について画像の撮影と照合の処理を繰り返す。既定の回数照合を行っても、同一人物との結果が得られない場合には、飛行ロボット3にて撮影されている候補侵入者は、建屋Bに侵入した侵入者ではないと判定する。そして証跡性確保のため、撮影した屋外画像を監視センタに送信する。さらには監視領域E内に他の人物がいる場合には、その人物の位置を目標位置に再設定した上で、飛行ロボット3はその人物付近まで飛行し、ステップS111以降の処理を行う。監視領域E内に存在する候補侵入者の全てについて、侵入者ではないと判定された場合には、再度既に判定済みの候補侵入者についてステップS111以降の処理を行うものとする。これらの処理は、何れかの候補侵入者が侵入者であると判定されるか、警備モード切替部21により警備解除を示す信号が警備制御部23に入力されるまで繰り返される。
なお、建屋Bの外にいる候補侵入者は静止しているとは限らないため、候補侵入者の移動に伴い飛行ロボット3を追跡させる必要がある。そこで、レーザセンサ解析モジュール231が、候補侵入者の移動を検出した場合には、図10のステップS101以降の処理を繰り返す。
すなわち、目標位置設定手段イは、レーザセンサ解析モジュール231が出力した候補侵入者の移動後の位置と監視空間マップ241とを参照して、候補侵入者の移動後の位置を基準とした目標位置を再設定する。そして飛行ロボット制御モジュール233は、ステップS103とS104における処理と同様の処理により、飛行ロボット3を再設定された目標位置に移動させることで、候補侵入者を追跡する。再設定された目標位置に飛行ロボット3が移動したことが確認されたら、ステップS106と図11に示した処理と同様の処理で候補侵入者の撮影と照合を行う。候補侵入者が移動し続けている場合には、適当な時間間隔や距離間隔ごとに候補侵入者の撮影と照合を行うこととしてもよい。
また、画像処理モジュール234における照合処理により、候補侵入者のいずれかが建屋Bに侵入した侵入者であるとの確認が取れた場合には、その候補侵入者に絞って上述の追跡処理を行うことで、その候補侵入者が監視領域Eの外に出たときの様子から逃走経路が判明し、その後の捜査情報に役立てることができる。
本実施の形態では、飛行ロボット3が動作を開始するのは、建物内センサ5が侵入者を検出して異常状態であるとの信号が警備制御装置23に入力されてからであるとして説明したが、レーザセンサ4が侵入者を検出して異常状態であると信号が警備制御装置23に入力してから飛行ロボット3が動作を開始するものとしてもよい。
この場合、建物内カメラ7が建物内画像を取得するよりも先に飛行ロボット3が屋外画像を取得して、候補侵入者の人物特徴を取得しておき、監視領域Eにおける位置をレーザセンサ4にて把握し続ける。そして、侵入者が建屋Bから出てきた後、監視領域Eに存在する候補侵入者のうち、建屋Bに侵入した人物を直ちに判断できるので、素早く追跡が可能となる。
また、本実施の形態では、画像処理モジュールにおける3次元顔モデルの生成にあたり、顔画像を1枚使う例を示したが、顔画像が1枚のみでは顔の向きにより顔の特徴的な部分が映らず、3次元顔モデルにおいて、情報が欠落する可能性がある。
そこで画像処理モジュールは、建物内カメラが撮影した複数の建物内画像からそれぞれ顔画像を抽出して、次々と3次元顔形状データに合成していくのが好適である。その際、合成に用いる顔画像の数に上限を設ける場合、顔画像の大きさの大きいものを優先的に選択する、顔の正面に向いているものを優先的に選択する、逆に顔の向きが均等に異なるよう選択するなどの条件を課すことが好適である。
さらには合成の際、顔画像どうしの明るさに差が大きい場合、合成の境界において、本来、顔にはない特徴が表れ、照合に悪影響を与えることも考えられるので、明るさの差が少ない顔画像の組合せを考えたり、合成の境界付近で輝度の変化がなだらかになるよう補正処理をするのが好適である。
さらには、建物内カメラが、建物内画像を複数枚取得するに辺り、建物内センサとしてPIR(受動型赤外線人体検知器)タイプのセンサを備える場合には、そのセンサが侵入者を検知し続けている間は建物内画像を取得し続けておき、上記のような処理に好適なものを選択することができる。
また、飛行ロボットは人物との距離一定に保ちつつ、その人物を複数回撮影をして、その中から照合に適した顔画像を選択することのほかに、飛行ロボットに音声出力手段(スピーカー)を備えるものとし、警告音声を通知したときに取得した顔画像を優先的に照合に使うのも好適である。人間の心理として、警告音声を聞くとその方向に無意識のうちに顔を向けることが多いと考えられるからである。
また、本実施の形態では、建物内カメラはカラー画像を取得できるタイプを用いるものとし、建屋B内が暗いときは照明装置を併用するのが好適であるとした。この照明光は建物内カメラにて服装についての色情報を取得するため、可視光照明が前提になる。ここで、照明装置として、侵入者に悟られないよう、あるいは近隣住民への影響を配慮して近赤外照明を用いる場合には、監視カメラとして一般的なモノクロタイプのものを用いることになる。その場合は、服装情報として色情報を用いる代わりに、明るさ情報を用いることになる。
1・・・監視システム
2・・・警備装置(制御部)
3・・・飛行ロボット
4・・・レーザセンサ(物体センサ)
5・・・建物内センサ

Claims (3)

  1. 建物内への侵入者を検出する建物内センサと、
    前記建物内を撮影する建物内カメラと、
    前記建物の外部を飛行しつつ撮影する飛行ロボットと、
    前記建物内カメラまたは前記飛行ロボットが撮影した画像を処理する画像処理部と、前記飛行ロボットの飛行を制御する飛行ロボット制御部を有する制御装置を備え、
    前記画像処理部は、前記建物センサが侵入者を検出した後、前記建物内カメラが撮影した建物内画像から抽出した人物領域と前記飛行ロボットが撮影した屋外画像から抽出した人物領域が同一人物のものか否かを照合し、照合結果を飛行ロボット制御部に出力し、
    前記飛行ロボット制御部は、前記画像処理部が同一人物と判定すると、前記屋外画像から抽出した人物領域に対応した人物を追跡するように前記飛行ロボットを制御することを特徴とした撮影システム。
  2. 前記建物の外部領域に存在する物***置を出力する物体センサを設置し、
    前記制御装置は、前記物体センサの出力に基づき人物位置を算出する物***置算出部を更に有し、
    前記飛行ロボット制御部は、前記物***置算出部にて算出された人物を撮影するように前記飛行ロボットを制御する請求項1に記載の撮影システム。
  3. 前記画像処理部は、前記人物領域から顔画像、服装情報、身長情報のうちの少なくとも
    1つを人物特徴として抽出して照合する請求項1または請求項2に記載の撮影システム。
JP2013017245A 2013-01-31 2013-01-31 撮影システム Active JP6155032B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013017245A JP6155032B2 (ja) 2013-01-31 2013-01-31 撮影システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013017245A JP6155032B2 (ja) 2013-01-31 2013-01-31 撮影システム

Publications (2)

Publication Number Publication Date
JP2014149620A JP2014149620A (ja) 2014-08-21
JP6155032B2 true JP6155032B2 (ja) 2017-06-28

Family

ID=51572567

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013017245A Active JP6155032B2 (ja) 2013-01-31 2013-01-31 撮影システム

Country Status (1)

Country Link
JP (1) JP6155032B2 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6441067B2 (ja) * 2014-12-22 2018-12-19 セコム株式会社 監視システム
JP6482852B2 (ja) * 2014-12-22 2019-03-13 セコム株式会社 追跡処理装置
JP6441068B2 (ja) * 2014-12-22 2018-12-19 セコム株式会社 監視システム
JP6539073B2 (ja) * 2015-03-12 2019-07-03 セコム株式会社 監視システム及び飛行ロボット
JP6559987B2 (ja) * 2015-03-23 2019-08-14 グローリー株式会社 人物認証装置及び人物認証方法
JP6589321B2 (ja) * 2015-03-24 2019-10-16 富士通株式会社 システム、検索方法およびプログラム
JP6599143B2 (ja) * 2015-06-30 2019-10-30 セコム株式会社 自律移動ロボット
JP6680498B2 (ja) * 2015-09-28 2020-04-15 株式会社日立システムズ 自律飛行移動体、ターゲット追跡方法
JP7032308B2 (ja) 2016-03-31 2022-03-08 住友重機械工業株式会社 建設機械用作業管理システム及び建設機械
JP6515423B2 (ja) * 2016-12-28 2019-05-22 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 制御装置、移動体、制御方法、及びプログラム
JP6844385B2 (ja) * 2017-03-31 2021-03-17 日本電気株式会社 照合システム、管理装置、照合方法、及びプログラム
EP3893193A4 (en) * 2018-12-07 2021-12-22 NEC Corporation INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
JP7371806B2 (ja) * 2018-12-07 2023-10-31 日本電気株式会社 情報処理装置、情報処理方法、およびプログラム
JP7420504B2 (ja) * 2019-08-05 2024-01-23 株式会社フジタ 作業状態管理装置
JP2022546880A (ja) * 2020-08-01 2022-11-10 センスタイム インターナショナル プライベート リミテッド オブジェクト関連付け方法及び装置、システム、電子機器、記憶媒体及びコンピュータプログラム
JP7088343B2 (ja) * 2021-02-24 2022-06-21 日本電気株式会社 照合システム、管理装置、照合方法、及びプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005086626A (ja) * 2003-09-10 2005-03-31 Matsushita Electric Ind Co Ltd 広域監視装置
US20080144884A1 (en) * 2006-07-20 2008-06-19 Babak Habibi System and method of aerial surveillance
JP4848382B2 (ja) * 2008-02-27 2011-12-28 三菱重工業株式会社 無人航空機及び無人航空機システム
JP2011128873A (ja) * 2009-12-17 2011-06-30 Toyota Home Kk 防犯システム
JP5449066B2 (ja) * 2010-07-16 2014-03-19 セコム株式会社 物体検出センサ

Also Published As

Publication number Publication date
JP2014149620A (ja) 2014-08-21

Similar Documents

Publication Publication Date Title
JP6155032B2 (ja) 撮影システム
CN111770266B (zh) 一种智能视觉感知***
JP5674307B2 (ja) 対象者検出システムおよび対象者検出方法
WO2018101247A1 (ja) 画像認識撮像装置
JP5127531B2 (ja) 画像監視装置
US10742935B2 (en) Video surveillance system with aerial camera device
KR101858396B1 (ko) 지능형 침입 탐지 시스템
JP2014192784A (ja) 監視システム
US20180029834A1 (en) Monitoring of step rollers and maintenance mechanics of passenger conveyors
US11275951B2 (en) Surveillance drone with microbots
JP6195447B2 (ja) 撮影システム
JP5538963B2 (ja) 非常通報装置
JP6140436B2 (ja) 撮影システム
WO2019239159A1 (en) Method of and system for recognising a human face
JP2014150483A (ja) 撮影システム
JP5982273B2 (ja) 撮影システム
KR20170100892A (ko) 위치 추적 장치
KR101695127B1 (ko) 영상을 이용한 집단 행동 분석 방법
CN112995619A (zh) 一种投影显示控制方法、装置及投影***
KR101656642B1 (ko) 영상을 이용한 집단 행동 분석 방법
TWI471825B (zh) 天台安全監控系統及方法
JP6163302B2 (ja) 監視システム
KR102305438B1 (ko) 무인기 감시 시스템 및 방법
KR102546045B1 (ko) 라이다(LiDAR)를 이용한 인체 감시장치
KR20230152410A (ko) 다중 카메라 및 이동 카메라를 이용한 영상 분석 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170605

R150 Certificate of patent or registration of utility model

Ref document number: 6155032

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250